WEEKLY人工無脳

先週のSNSで話題になったデータサイエンスやAI的な出来事をサクっとまとめます。 inspired by 独断ニュース

WEEKLY人工無脳【第13号】(2018.7.2~7.8)

f:id:ysdyt:20180430031726p:plain

①AIをビジネスに使うのって、「ふわっとしたタスク」と戦い続ける作業だよね

blog.tinect.jp

整理されたタスクは高速で処理できる人は結構いるけど、ふわっとしたタスクを具体的なタスクに落とし込める人はあんまりいないよね、って話。筆者はデータサイエンス系の方ではないようですが、「AIでなんかできない?」という”King of ふわっとしたタスク”を投げられる業界の方々においては非常に既視感のある話です。わりと「うんうん、そうだよね」っていう普通の話ではあるのですが、このネタについてある程度言語化してくれているのと、物申したいPM業の方がたくさんいてバズった模様。

本文では結局、「具体的なタスクに落とし込めるようになるには、そういった経験をたくさんするしか無い」という救いのないまとめになっているのですが、これに対して別の方が書いたブログもおもしろいです。

teruyastar.hatenablog.com

普通のプロジェクトがダメになるのは「自分に与えられた仕事の範囲は絶対超えない」「本音は言わない」それをしては余計な問題になるし空気も悪くなる。 このプロジェクトはアマチュアじみた「使命」ではなくプロとしての「仕事」だから。 ゲーム会社も普通の会社も評価システムは全て「本音」を封じ「空気を読む」ほど評価が上がるようになっている。

「ふわっとしたタスクを具体的にする」という話からは少し脱線し、「炎上しないように的確なタスクをあぶり出して、解決するPMはどんな人か。その時の組織構造はどういうものか」というような話をしています。

ぶっちゃけ、分析ができて理解力も高くて手もよく動く人というのは新卒でも結構います。データアナリスト4年目5年目みたいな人が新卒と同じ仕事をしていると結構ヤバイのです。経験を積んできた人はPMとして稼働して、人間1人が達成できる仕事以上のことをチームを動かして5倍10倍と成果を出せないと組織もスケールしないのでヤバイ。それでも「分析力」と「PM力」の両方を高度に満たすのは難しくてデータサイエンス業界のPM不足問題は他業界よりも厳しい感じがします。ただでさえデータサインス自体も体系的に学ぶ方法があまりなく、その上さらに育成メソッドも確立しにくいPM業が重なる問題。どうなるんでしょうね。まぁみんながんばりましょう(適当)

②世界中に住所を付け直すビジネスがほとんど錬金術みたいなんだが

jp.techcrunch.com

世界中の場所を3文字の単語の組み合わせでマッピングするアイデア。この方法で3mメッシュという細かさで世界中の位置をピンポイントで指定できる。

1年ほど前にこのアイデアを見たときは、「確かに便利かもだけど何に使うんだこれw」って思ってたら、自動運転業界などから多額の投資が相次いているらしいです。なるほど…。
3mメッシュという超ピンポイントな位置表示が可能なのでAirbnbのホストは3語のアドレスを使ってゲストを分かりにくい入口に案内したりもできるらしい。なるほど…バカにしてすまんかった…そういう使い方は確かに便利だ…。

世界中に超詳細なユニークな住所をつけ直す、というだけのアイデア。誰もが思いつきそうで誰もやってこなかったビジネス。そしてほとんど錬金術みたいな資金集めしている感がすごい。

③日本にもキャッシュレス化のビッグウェーブがようやくきた!が、油断は禁物だ!!!

japanese.engadget.com

電子マネーやクレジットカード決済時に店側が負担する3〜5%の手数料が、日本のキャッシュレス化を阻んでいると言われており、その手数料がゼロとなれば、中小店舗のキャッシュレス化が一気に進むかもしれません。

Line Payが本気出してきた感。8月1日から3年間限定としているが、決済手数料ゼロでQRコード決済を開始。これで小さなお店でもキャッシュレス支払いできる。 そしてQRコード決済でポイントも付与というキャンペーン付き。いいねいいね!3年はユーザーの意識を変えるには十分な時間。

これに呼応してYahooも導入・入金・決済手数料ゼロの「ヤフースマホ決済」を10月に開始。殴り合いが始まった(いいぞもっとやれ)

japanese.engadget.com

一方、盛り上がっていたら国がこういうことも言い始めた。

getgadgets24.blog.jp

QRコード決済は余計なハードウェアがいらないところが良いところなのに、「標準化」とか言って無駄なハードウェアやめんどくさいルールとか絶対作らないでねって感じです。マイナンバーカードみたいなことになったらマジ許さん。

さらに一方QRコード決済大国 中国では、

googleのスマートリプライ機能は退職願いもスマートに出してくれる

一体どういう学習をしたら&会話してたらこのサジェストが出てくるのかが気になるw このツイートへのリプに「辛い時、押してしまいそうだ。」とか書かれててウケる。ベンリダナー。

⑤IT化進めたら売上が下がったでござるという話

個人的には目から鱗だった話。鳥貴族が価格値上げによる売上減少を理由に売上予想を下方修正、それに対して「接客をタッチパネルにしたからや」という指摘。

ある時から近所の鳥貴族も注文をタッチパネルで受け付けるようにしており、「便利になった〜」「外国人店員さん多いから最悪日本語話せなくても良くなったね〜」「データも取れるし〜」と、みんなきっともっとカジュアルに注文するようになったもんだと思ったら、実は飲みながらタッチパネルで合計金額が確認できたら切りの良いところで注文を思いとどまり、結果客単価が下がってるんだという指摘。

IRにはそういった言及が無いようなのでこれはツイート主の意見ではあるが、さもありなんという気もする。価格値上げといっても280円が298円になっただけだし、確かに他の原因と考えたほうが妥当そうな気がする。

もろもろの効率化やデータ取得のためにこういったデバイスを導入する場面は飲食店以外にもたくさんある。カジュアルにIT化を進めるとこういうこともあるのかと目から鱗でした。

⑥カメラは隠すべき?隠すほうが気持ち悪くない?

www3.nhk.or.jp

東京オリンピックまでに首都圏の在来線のすべての列車に防犯カメラを設置することが決まったという話。

カメラは蛍光灯と一体となったタイプで、1両に8か所設置。録画した映像は1週間程度で上書きという仕様。プライバシーへの配慮とかなんとかでこれまで導入しなかったのだろうけど、やっと導入かという気持ち。 痴漢行為への抑止力としても、カメラがどの方向を向いているのかわからないようにするのは意味があるので良いと思うのです。ただ、こちらのニュースは意味がわからない。

news.tbs.co.jp

リンク先の画像を見てもらうとわかるのですが、自販機商品サンプルの小さな穴からカメラが覗く構造にしていて完全に隠し撮り状態…。防犯への抑止が主目的なら「動画!!!ばっちり撮ってるぜ!!!」とうるさいくらいアピールするカメラを堂々と設置すればいいと思うんですがどうなんでしょう。気持ち悪い感…。

機械学習を行う防犯カメラなどもこれからきっと増えていくと思うのですが、こういったカメラ設置に対する考え方も一緒にアップグレードされていってほしいところです。隠し撮り、ダメ、絶対。

ブロックチェーンのゆりかごはアート領域?

jp.techcrunch.com

ブロックチェーン活用事例の話は出ては消えを繰り返しているのですが、今回はアートの売買をブロックチェーンで管理し、転売されるごとにアーティストへ還元金が再分配される仕組みを作ったベンチャーの話。

流動性があり取引が追いにくい商材として「アート作品」というのは確かにブロックチェーンで管理するには良いターゲットなのかもしれない。アート作品が他の商材と違うユニークな特性として、「新品が最も値段が安い」というのも面白い。所持者や購入金額もアートの価値に大きく影響するものだからこそ、売買ルートをクリアに管理するという発想は自然な気がする。

ここでは「アート作品」に対してブロックチェーンを利用する話ですが、@tokorotenさんがマッハ新書で出されている個人ICO 3.0にはアート作品を作る人自体にもブロックチェーン技術(Initial Coin Offering)を適当しようという話も登場し、非常に面白い考え方なので興味ある人はぜひ買って読んでみてください(オススメ!)

⑧データで服を作るzozo、服制作も全自動化を目指す

www.itmedia.co.jp

zozoスーツで集めたデータを組み合わせて、ほぼ無人で1着40分でニットを自動製造機するプロセスも開発したという話。

ZOZOのプライベートブランドのニット製品は「ホールガーメントとZOZOSUITで計測した体形データを掛け合わせ、1着当たり40分で作成する」

ファッションに疎い人向けの神教科書服を着るならこんなふうにによると、「自分の体格にあったサイズの服をきているだけでちゃんとしてみる」ということなので、zozoスーツ採寸で作られるぴったりサイズの服を手軽に買えるようになることには期待しかない。今後オーダーメードスーツも同じく販売を開始するとのこと。体型データをフルに使って業界をぶっ壊して欲しい。

そして、製品の価値や体験を高めることと同時に、製造自体も自動化するところまで着手していてカッコイイ。これぞデータ活用の真骨頂という感じ。市場的にもめちゃくちゃインパクトがあったようで、従来のスーツ業界各社の株価は暴落した模様。こんなにわかりやすくデータビジネスが旧業界をdisruptしているのはもしかして初めてなのでは?

⑨価値観を問い直すサービスは流行る。たとえそれが命であっても。

globe.asahi.com

最後は個人的興味のあるバイオ系の話。遺伝子が関することは軒並みデータサイエンスの範疇だと思ってます。遺伝子データビジネス、すごいキテますよ!

中国のペットクローンビジネスが盛り上がっているという話。世界中の富裕層から超高額でも依頼が増えている。

クローンペットビジネスは実は2008年からすでに始まっていて、一匹約1100万円(!)という破格の値段でも世界中から依頼がくるらしい。主には「死んだ愛犬を生き返らせたい」という希望から依頼がくる。 遺伝子的にクローン(ハードウェアはオリジナルに等しい)でも、魂は別物。それでも人間が愛犬を蘇らせたいと依頼するのは、死んだ魂がまたその新しい体にも宿るかもしれないと期待しているからなのかもしれない。現在のクローンビジネスの大きなニーズは、優秀なハードウェア(生体)の大量生産ではなく、もはや人間の認知と哲学の世界にその価値がある。

昔、「どんなサービスが流行るか」という話を知り合いとして印象に残っているのは、 『AmazonFacebookが流行ったのは、単に便利とかビジネスに役立つからというだけではなく、「モノを売るためには丁寧な接客なんか必要ではなく、大量の購入者のレビューと便利な配送があれば良い」「承認欲求が人の繋がりを大きくする」みたいな、従来の価値観や哲学に大きく影響を与えるような問いかけをするサービスだったから』と話していた。

クローンビジネスの倫理的な正しさはまだまだ議論すべきだが、クローンビジネスが本質的には「姿か魂か記憶か、人間は命の何に価値を見出しているのか」を問いかけるビジネスである以上、必ず大きなニーズがあって、正しいか正しくないかの前に流行るものだと思う。この問いかけへの選択が見たいという気持ちからクローンビジネスの今後にはすごく興味があります。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第12号】(2018.6.18~6.24)

f:id:ysdyt:20180430031726p:plain

①「空の目」として暴力行為を検知するAIドローン

karapaia.com

ドローン視点からの空撮動画で人を撮影し、「暴力行為」を行っている人間を検知するシステム。

群衆の中から暴力行為が特定されれば、サッカー場フーリガン対策に有効かもしれない。

とか書いてますが兵器臭がすごい。

この群衆監視システムが検知できるのは「首を締める」「殴る」「蹴る」「撃つ」「刺す」などの暴力行為で、被撮影者の人間の姿勢推定情報を元に判断するようです。学習データには暴力行為の「演技」をした動画を使ったそうなので検知精度にもまだ難ありで、対象人数が増えると検知精度が下がったり、「ハイタッチ」を暴力行為として検知したりするそう。

人間の行動すべてを精査に分類することは難しそうですが、「暴力行為」のように目的を限定して機械検知を行うことはこれからまだまだ増えそう。第9回にも「万引き前の行為」を検知するカメラシステムの話がありましたが、次は人間のどんな行動を検知してくれるのか楽しみ。

FacebookからPose系の最新作がオープンソースとして公開

shiropen.com

毎回デモ動画がかっこよすぎるPose系のやつ。FBから”DensePose”が公開されたそうです。リアルタイムの推定動画が完全にSFのワンシーン。 これまでの体の姿勢情報(ボーン情報)から更に進化し、ピクセルレベルで人体位置が取れるそうです。「腕は腕でも、腕のどこか」ということまでわかっちゃう。そしてこれがオープンソース。すげーなー。

DensePoseのライセンスはAttribution-NonCommercial 4.0 Internationalなので商用利用は禁止です。お気をつけを。

③アマゾンはAIから仕事を奪われてるのではなくAIと「協業」を始めている

www.itmedia.co.jp

未だ勢いを失わないAmazon様、本業のECサイトは在庫管理もレコメンドもなんなら商品のピックアップまでアルゴリズムやロボットに任せて、手が空いた人間は新しいビジネスモデル作成(Prime AirWhole Foods Market関連)をやっていて、まさにAI時代の働き方をし始めてるという話。

タイトルは「仕事を奪う」という言葉を使ってますが、全然反対で、単純作業は機械に任せて人間は意思決定の伴うクリエイティブな仕事をするという、これこそまさにAI社会で実現したい人間もラクで楽しく働くためのスタイルではと思ってます。そろそろ「奪われる」という言葉を使うのを止めませんかという感じ。

④携帯電話ネットワークによる動態人口予想

headlines.yahoo.co.jp

スマホの電波が今どのアンテナ基地局とつながっているかという携帯電話ネットワークの情報を元に、個人を特定できない形で250~500メートル四方の人の分布を推計して人の動きを予想する実験の話。実験を実施するという話で、結果などはこれから。 ドコモ回線だけで7千万回線以上あるそうなので、全キャリアで実験せずとも十分に動態推定はできそうです。

都内などであれば人の位置情報はかなり正確にこのネットワークで把握できるはずで、こういった情報を生かしてどんどん便利なサービスを作ったり街のデザインに生かしてほしい。災害時などにもきっと役に立つはず。

⑤こういうの出始めたら終わりだと思ってたらもう終わっていたという話

www.nikkan-gendai.com

札幌市の業務用ソフト会社が従業員の「笑顔度」によって出勤登録を行うシステムを開発し話題となっているというネタ。 圧倒的な闇を感じるやつ。

社員の顔画像分析を行い「笑顔度」を算出。それが一定値以上じゃないと出勤登録できないらしいです。

導入した理由は

「弊社の出退勤管理システムを利用しているサービス業とやりとりする中で、『やはり従業員は笑顔が重要だな』と感じたのが、開発のきっかけです。

それでなんで出勤登録のときに笑わないといけないの?というのは多くの人の感想でいろんなツッコミがあったらしいです。それに対して開発会社の社長は

 厳しい意見にイー・カムトゥルーの上田正巳代表はこう説明した。「(ネットの意見については)なるほどという感じです。ただサービス業ではやはり笑顔が必要ですよね。数値は自由に設定できるので、会社の運用次第だと思います」

おう、、、

⑥アイドル顔生成最新作がもはや実在アイドルの宣材写真レベルでビビる

gigazine.net

アイドル顔生成といえば、すぎゃーんさんですが、すぎゃーんさんではない京都の会社が作ったGANによるアイドル顔生成。 すぎゃーんさんも褒めてますね。

百聞は一見にしかず、ということでこちらを見てください。生成が綺麗すぎて「??」ってなる。人の顔生成もここまできてたのか。

www.youtube.com

学習画像はきっとAKB系の宣材写真を使ったのだと思われますが、それにしても綺麗過ぎる。なんだこれ。具体的にはどうやって学習させているのか気になります。同社は同じく二次元キャラ生成もやっているそうで、そちらも半端じゃなく綺麗。(gifがこちらにありました)

⑦人工歯をGANでデザインするクールな取り組み

ledge.ai

引き続きGANネタですが、これもすごいイカしてる。 失った歯をGANでデザインし、より効率的に、かつ個人にあった歯を作成する技術の取り組みについて。

人工歯は、これまでテンプレート歯みたいなものから歯科医が頑張って個々人に合うようにCADなどで整形し作成していたそうです。その改善策として、GANを活用して失った歯の形状を生成しそれを元に作成したところ、医師が作成した歯よりもより患者の口に合い、噛みあわせが良かったそうです。GANによる歯デザインの生成の特徴は、人間には難しい複雑で自然な歯のイメージの作成が可能なことだそう。

技術的には、失った歯とは反対側の歯の写真を撮り、その画像を元にしてpix2pixから歯のイメージを作成し歯冠を作成するとのこと。なるほどー。

GANは完全には綺麗な画像を生成できないことがネックでしたが、歯のようなものであればある程度ゆらぎを持って作ってしまって、あとは医師が微調整できればokですね。GANの活用事例のお題としてすごく良い感じにハマってる気がします。

人工知能よりも翻訳コンニャクをはやく発明してほしい

shirakiya.hatenablog.com

「この論文が日本語で読めればどれだけ効率があがることか…」とこれまで100万回くらい思ってますが、わりとこの業界の人は当たり前のように英語論文を読んでいてツライ。日本語論文とか頑張って探そうとするとバカにされる気がしてツライし、論文の解説を日本語でやってくれてるスライドとか見つけると神かと思ってます。

そんな悩みに対してとりあえず「公開された最新論文のアブストだけでも日本語でざっと見れる君」を作ってくれた方がおられた。尊い

めっちゃ良いのですが、この便利さと快適さを知ってしまうとなおさら「論文全文が完璧な日本語化できれば…」と思ってしまう強欲。googleはよ。

⑨インターネットはもはやナードが集まる場所ではなくなった

togetter.com

これをデータサイエンスのネタとしてよいのかは謎ですが、バズっていたので。

「男性の声を機械学習で女性の声にしたらやる気が出るぞ!」って講演したら、「女性差別だ!」となって炎上したという話。Y!社も公式に謝罪文を出したりしました。

少し前に「土俵に女性があがって炎上」という話がありましたが、あれって、10年20年前に起きていても誰もここまで社会問題にしなかったと思うのです。この10年ほどですごい勢いで男女平等や多様性の許容というアイデアが日本にもインストールされて、昔では「女性が土俵に上がったらやっぱりおかしいじゃん?」とスルーされていた話にも「いや、それは性差別でしょ」と反応できるようになったのだと。googleなどの大手企業も性差別には厳しい措置をとったりする時代なのです。

そうはいっても「性差」をどう捉えるかはそれこそ個々人の問題だと思うので(例えば、レディーファースト文化を女性差別と考える人だっている)、つまりそういったアイデアは胸のうちに秘めたり匿名で公開されたりするぐらいで、公の場で話すのはもう時代に合ってないからやめとこうぜというだけの話な気がする。実は8割の女性が職場にイケメンがいるほうが良いと思っているアンケート結果があったとしても、それは匿名だから気にしない気にしない、みたいな。

発表内容が載っているログミーの記事を読む感じだと、会場はけっこうウケていたようなので、やはり特定のクラスターの人たちが集まってその中では問題視されず称賛された内容だとしても、ネットで広く出回ってしまうと世間一般のフィルターではアウトということはきっとたくさんでてくるのでしょう。最近落語に行ってきたのですが、けっこう女性蔑視な内容もあってこれがネットにでると燃えるんだろうなぁと思ったことを思い出しました。

この件に言及しているかは不明ですが、つまりこういうことだなーと思ったツイートを引用

LTでウケたのも、世間で炎上したのも両方理解できるけど、なんかこれはこれで窮屈だなと思いつつ、対応策として良いなと思ったツイートも引用

宣伝です!!!

data-analyst.connpass.com

自分も運営として参加している、事業会社の分析官が集まる勉強会兼交流会の “Data Analyst Meetup Tokyo” vol.7 を開催します!

開催日は7/25(水)です。今回の開催場所はPairsで有名なエウレカさん。(麻布十番の超おしゃれなオフィス…)

今回は少し趣向を変えてLT6枠という感じでわちゃわちゃいろんな業界のアナリストの方々のお話を聞くスタイルとなってます。第9号でも紹介したTHE GUILDの安藤剛さんもLTに参加されます!

参加資格は”事業会社のデータアナリスト”に限定しております(なのでとても濃ゆい会で懇親会が楽しいです!)、公開1日半で30名の一般枠に150名以上の応募を頂いておりますが、抽選となりますのでぜひぜひ今からでも参加表明よろしくおねがいします!

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第11号】(2018.6.11~6.17)

f:id:ysdyt:20180430031726p:plain

①見分け不可能な超絶精巧AIコラ技術がついに出来てしまった...

gigazine.net

今週の一番の衝撃はこれですかね。

自身の表情・目やまばたきの動き・口の動き・頭の動きをターゲットとなる人物に移す映像技術”Deep Video”についての話。自分が喋ってる映像を、限りなく本物に近いオバマ大統領に変換したりすることができる。

百聞は一見にしかず、とにかくリンク先の動画をみてほしいのですが、もうこれは完全に見分け不可能です。本当にありがとうございました。

以前にもAIがAVの顔面部分に有名人を合成する「フェイクポルノ」とかありましたが、それとは全く別モノのクオリティーです。

この技術を作った本人たちも、この技術がフェイク動画などに悪用されていることはわかっていて、対策として「こういう技術がもうあるということをみんな知って、動画見るときは本物かどうかちょっと疑ってみてね」とか開き直っててヤバイ。おそらくGANのgeneratorとdiscriminatorのように、AIが作ったものを抜けけるのももはやAIだけという状況になると思われる。

フェイクニュースをシェアしまくるおじさんたちをFBでもよく見かける昨今ですが、テキストや画像は精巧な偽物が作り出せても、動画はさすがに真実だろうと思っていた最後の砦が崩される日も近いですね。「うそをうそであると見抜ける人でないと難しい」のレベルはここまできてしまいました。アーメン。

②天才高校生プログラマー、レシートデータビジネス始めるってよ。

www.businessinsider.jp

レシートデータをユーザから10円で買い取り、ゆくゆくは企業にデータ販売するビジネスを開始した高校生の話。投資ファンドから1億円も調達済み。日本人は若い天才が大好きなのでメディアも今週たくさん記事にしていた印象です。

一方ツイッターでは、天才高校生を応援する声や、レシートビジネスってどうよ…という賛否に別れている印象。

個人的にも、レシートデータの分析をちょっとやったことがある経験から、そもそもレシートに正確な商品名が書かれてない(表記揺れが酷すぎたり途中で文字が切れてたりする)場合が多すぎて無理ゲーだった記憶。それとは別にフォーマットがバラバラな対象への機械的な文字読み取り(OCR)も難易度高そうだし、難しいチャンレンジになりそうな予感です。電子決済が進んで行く中でレシートはなくなりますし(アプリで電子的に管理される)、割と時代と逆行したモデルのような。

そんな凡人の考えとは裏腹に、早速死ぬほど買い取り依頼がきてサービスが一時停止になったり(買い取りを停止するまでの約16時間で、約7万人のユーザーから合計約24万5000枚の買い取り依頼があったらしい…)、 付箋でも葉っぱでも10円で買い取られるぞ!ということで騒ぎになったり、話題に事欠かない1週間となった模様。新しいビジネスを作るというのは大変や…

③「耳の形」を見て絵師を当てるAIさん、ガチな絵師ファンみたいな当て方が面白い。

www.sankei.com

(たぶんCNNの)転移学習を使って源氏絵の絵師流派4分類を96%精度で分類。さらにモデルの注目箇所をGrad-CAMで可視化したところ、専門家が見るところとは異なる「貴族の耳」に注目していた、という話。 深層学習の適応先が日本絵画というのも素敵な感じ。

学習データを作る際に、約3万枚の源氏絵画像から人の顔を切り出したところ560枚しか得られず、そこで別の学習済みモデルを使ってファインチューニングして精度を上げたとのこと。

学習済みモデルは、”数百万枚の画像を使った学習が済んでおり、図形を認識できる既存のAI”と説明されており詳細は不明。ちょっと気になる。

Grad-CAMの結果、モデルの分類時は「貴族の耳」の形に注目していることがわかり、普段専門家が分類するときとは異なる点を見ていたところが驚きポイントだったらしいです。

こういった分野では大御所の先生が「◯◯だ!」といえば異論を挟みにくい雰囲気があったりするそうなのですが、「AIが言ったなら仕方ない」という逃げ道ができて中の人達は嬉しそう。古い業界での人工知能の本当の価値は、確度の高い答えを教えてくれるのに負けずとも劣らず、「体のいい言い訳」を作ってくれることなのかもしれない。

与太話ですが、以前友人たちと「MSゴシック絶対許さんマン」というフォントの識別を行うCNNモデルを作成し、Maker Faireに展示したことがあったのですが、その時もモデル注目箇所をGrad-CAMで可視化したところ、フォントを扱うデザイナーの方が注目している点と異なる箇所を識別ポイントにしていたことがわかったので、こういった発見の驚きと楽しさはすごくわかります。

チームメンバーと頑張って作成したので良かったら見てみてください -> CNNは絵札のどの部分に注目してフォントを見分けているか

④デバイス側で深層学習するカメラ、Amazonの”DeepLens”

japanese.engadget.com

ネットワークに接続せず、デバイス上で深層学習を用いた画像認識などを行えます。 という、Amazon謹製のカメラが249ドル(約2万8000円)でアメリカで発売開始されたという話。

Alexaといい、Amazon様がイケイケ過ぎる。カメラのデザインもイケてる感じ(充電ケーブルが白いのかどうか気になりますね。)

DeepLensにはGreengrass、TensorFlow、SageMakerなど、最新のツールが付属。また、「歯を磨く」「ギターを弾く」など30種の動作を識別したり、犬や猫を見分けたり、ホットドックかそうではないかを見極めるものなど、学習済みの深層学習モデルもセットされており、別途環境などを用意しなくても、誰でも10分以内に深層学習を始められるとしています。

詳細はよくわからないものの、学習済みモデルを使って推論に使うだけでなく、将来的には学習もクライアントだけで行えるようになるような雰囲気(?)ですね。スマートホームの”目”のポジションを狙った商品なんでしょうか。もう生活がラクで楽しくなるならどんなデータでも持っていっていいよAmazonさん(とgoogleさん)という気分。

⑤AIで声を取り戻したジャーナリスト

www.bbc.com

BBCの和訳記事。喉の病気で発話機能を失ったベテランジャーナリストが、自身の膨大なラジオ放送データを学習に使い、自身の声を合成する深層学習モデルで仕事復帰したという話。 その肉声(?)が聞けるリンクがぱっと探した感じでは見つからなかったのが残念。

上でも挙げたフェイク動画や、第6号でも挙げたgoogleの電話予約AI”Duplex”のように、音声合成系の技術発展が最近加速度的にすごい。深層学習様様。

今では、ウェブサイトに載っている文章を録音すると、500ポンド(約7万3000円)で数日間で音声を生成してくれるようになった。

というように、膨大な音声データを必要とせず、少量のデータから効率的に学習する方法もビジネスとして確立しているというのが面白いですね。我々が初音ミクで満足しているうちに、世界もどんどん進んでいるのだ…

⑥”目で見えないもの”も予測するニューラルネット

japan.cnet.com

動く人の映像と、そのときの電波反射パターンデータを組み合わせて学習することで、カメラで写すことのできない壁越しの人間の動きまでニューラルネットで推測できるようになったという話。理屈もわかるし予想もできますが、やっぱりすごいなー。

ちょっと話は飛躍しますが、人間が知覚できるのと同じ可視光下の映像や音域のデータだけでなく、もっと広いデータを使えば、AI的なものは人間がいうところの”第六感”的なものも推測できるようになるのかもしれませんね。そういう実例を誰かが出してくれるのを密かに期待しています。”おばけ”的な不可視な存在がやっぱり存在するみたいだぞ、とか。

⑦面白かったARネタも貼っとく

⑧日本の人口密度分布図可視化

機械学習で”画像を見ずに”細胞分類を超高速高精度に行うシステム “ゴーストサイトメトリー”が超かっこいい

www.jst.go.jp

100人の男に聞くと、100人がかっこいいと答えるであろう中二心をくすぐるネーミングセンス。いや、カッコイイのは名前だけじゃないのだ。

生物学領域の話ですが、人間よりも千倍以上早く細胞を識別して選り分ける機械学習システムのお話。産学連携・ハードウェア/ソフトウェアと様々な領域を越境して研究開発し、その成果はScience紙にも掲載されたそうです。

細胞を適切に分類する作業は、さまざまな診断や再生医療・細胞治療など高い安全性や信頼性の求められる医療に必須の技術です。しかし、人間が手作業で細胞の”見た目”から選り分けることは非常に難しくかつ遅いことが問題でした。その後、さまざまな自動分類技術が発達したものの処理速度と分類精度のトレードオフがあり難しい領域だったそうです。

ゴーストサイトメトリーは、人間が関与しない細胞分類システムとして、画像(人が認識するためのデータ形式)を作らずに、単一画素圧縮計測信号を直接機械学習モデルに判別させるというシステムだそうです。 イメージ的には、人間が理解できる高級言語(画像)ではなく、1/0のバイナリ情報(圧縮したピクセル情報的なもの?)を直接学習させることでスループットと精度をあげている、という話だと思われます(怪しい) 画像情報を使わずに情報のエッセンスを処理させるところを”ゴーストを見ている”と表現しているネーミングセンスに嫉妬。

これによって、大きさも同じで人の目で見ても形の似た細胞でさえも超高速・高精度に分析・判別できるようになったそうです。 ハードウェア的には、超微細な蛍光標識データをどう検知するか、ソフトウェア的にはリアルタイムイメージ情報処理手法の開発が重大な課題となっていたところ、光・流体・電気ハードウェアと機械学習ソフトウェアを密に結合することで、両課題を一挙に解決したそう。

日本の誇るべき技術!と言いたいところですが、競争の厳しさはもちろんサイエンスの世界にもあるわけで…

⑩ AI・データ活用案件の進め方指南書が経済産業省から公開されたぞ!

www.meti.go.jp

データ分析活用やAI開発案件には、データや機械学習が内包する特性を理解した上で、一般的な受託分析やシステム開発スキームとは異なるスキームで契約や進行をすることが多いです。

「偉い人からの命令とお金ならあるんや!」という豪胆な企業もあるものの、そもそもどこに発注すればいいか、どういった要件定義が必要か、何を考慮しておかないと失敗するリスクがあるかなど、なかなか把握しにくい部分があるのもたしかです。 具体的な実例が少ない「データ・AI案件」に対して、「案件やるならこういった項目を検討しないと大変だよ」というガイドライン経済産業省有識者が作ってくれたそうです。

内容は以下の2点について。

  • データ編

    データの流通や利⽤を対象とする契約について、各契約当事者の⽴場を検討し、⼀般的に契約で定めておくべき事項を改めて類型別に整理した上で列挙するとともに、その契約条項例や条項作成時の考慮要素を提⽰。

つまり、データの受け渡し・共有が発生する契約のときに気をつけておくポイントなどが書かれた指南書。

  • AI編

    AIソフトウェアの特性を踏まえた上で、開発・利⽤契約を作成するにあたっての考慮要素、当事者の適切なインセンティブ形成の⽅法、トラブル予防⽅法等についての基本的考え⽅を提⽰。

つまり、AIシステムを作る仕事を契約するときのハマりポイントを教えてくれる指南書っぽい。

本文はPDFで356ページにも渡るものでこちらはヤバイのですが、それとは別に概要をまとめた7ページのものもあるので、AI案件をやらないといけない人たちは一読の価値ありだと思われます。

⑪数枚の2D画像から3Dモデルを生成するGQNがすごすぎてもうよくわからない

PFN岡之原さんが「この1~2年内の最大の進歩」という話。ゴゴゴゴ。。。

deepmind.com

人間の場合、たとえそれが初めて見る彫刻だったとしても、一方向からそれを眺めるだけで「反対から見るとこういう形だろうな」「厚みはこれくらいだな」「真上から見るとこうだろうな」という”立体感”を当たり前のように想像することでできますが、機械の場合、限られた方向からの画像を数枚見せたくらいではそういう推測はもちろんできず、実現するためには膨大な教師データと学習が必要でした。

それを新時代の神ことDeepMind様が「出来たよ」と発表したのがGenerative Query Network(GQN)という新技術。

教師データ無しで!しかも異なる視点からの数枚の画像だけを元に!3Dモデルを生成する!という驚くべき技術。 機械がこのレベルまで3D空間を再現ができるようになると、いよいよ言葉通りの”人工知能”じみてきた感。

最近は当たり前のように2次元画像だけから深度センサー無しに深度(対象までの距離)を再現できるようになってますが、(それだけでも未だにめっちゃすごいと思うのですが…)、ついに距離だけではなく立体物までも再現できるようになってきました。 現在は単純な形のオブジェクトしか生成できないとしているものの、もっと複雑なものも構成できるのは時間の問題でしょう。はー、すごい。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第10号】(2018.6.4~6.10)

f:id:ysdyt:20180430031726p:plain

①きゅうり農家小池さん『俺が人工知能だ!!!』

news.mynavi.jp

機械学習界隈で「きゅうり」といえば知らない人はいない小池さんのきゅうりマシン奮闘記の振り返りとこれから的なお話。 実は筆者が人生で初めてバズった記事がきゅうりマシンを紹介した記事だったりするので個人的にファンでずっと応援してます。

何はともあれ、誰もが注目してしまうのはここでしょう。

1.4倍の作業スピードの向上が図れたが、半年後にはわたしの判断能力が向上したため現在は使っていない。

学習用の正解データ作りすぎて「俺が人工知能だ!」状態。

め  っ  ち  ゃ  わ  か  る  … !!! 完全に機械学習アルアルです。

「当初は完全自動化を目指したが、最終的には”人間のサポート”役と位置付けた』という話も納得しか無い。 人間が行うリアル世界の活動を完全に機械学習で完全に代替えする難しさを実地で実践されてて尊い

この記事も、「いろいろやったけど最終的に無理でしたわー」という話ではなく、人間のサポート役とした三号機はきゅうり仕分け作業の初心者や未経験者には効果的なのではと説明しつつ、

8月には4号機を完成させたい。最終的には、自動収穫ロボットを開発できればと考えている。農業の効率化にテクノロジーを活用し、品質向上や収量の増加、栽培ノウハウの継承に取り組んでいければ理想的だ

相変わらずカッコイイです小池さん。

②デジタルアートと機械学習APIはきっと相性が良い

cloudplatform-jp.googleblog.com

紅白歌合戦などでもPerfumeライブの特殊演出はすっかり有名になりましたが、それを手がけているのがライゾマティクスというメディアアート集団です。個人的には超大好き。

そのライブの特殊演出に、ライゾマはGoogle機械学習APIを使っているというお話。具体的には

  • 一般から募集しアップロードされた約23,000枚の写真をリアルタイムに画像解析し、PerfumeのMVの類似したフレームを検索するインタラクティブコンテンツとして公開。ライブ当日もステージ上の演出素材として活用
  • perfumeのすべてのMVからフレーム画像を作成し、tensorflowで画像分類。t-SNEで二次元に潰してコラージュ画像を作成

というもの。

GoogleやMSが提供する機械学習系のAPIは、ビジネスに使うには少し痒いところに手が届かない・利用料金が高い・精度が微妙に足りないという部分もあるものの、デジタルアートの一部として活用されるのは非常に親和性が高そう。特に、2つ目の作品は個人でも作れそうなので、こういった趣味活動をして名を挙げるメディアアーティスト的な人は増えそうですね。

③可視化業界のタブー?「顔の美しさ」を数値化

www.itmedia.co.jp

Microsoftの年次イベント「de:code 2018」で東大の研究室が発表した「女性の顔の綺麗さを機械的に数値化する」技術の話。

正確には、「人工知能が女性の顔の“魅力度”を判定し、最も魅力が高まるような化粧を推薦してくれる」と謳われているが、本質的には「人間(特に女性)の顔の美醜の数値化」であると思う。(そのまま言ったら絶対に炎上するので良い感じに見せ方を変えたのだと…)

機械学習を勉強して、なにかオリジナルのアプリ的なものを作ろうとした人は必ずは一度は考えたであろうネタを、東大研究室がガチでやってて草。でも誰もが取り組みたくなる魅力はありますよねー。わかる。

手法としては、女性の顔の美醜を人間が点数化(1~5点)し、それを教師データとして顔画像を学習させたらしい。結果、実際に人間の評価と比べても非常に強い相関が見られた(相関係数0.85程度)とのことでなんだかんだすごい。デモで出されている結果写真をみてもわからんこともない。

不謹慎と言われるかもですが、こういった機能をマッチングサイトとかは真面目に実装すればいいのになと思ったりもします。”顔の好み”を数値化してレコメンドに活かすとかすれば、批判もあるでしょうが間違いなくユーザーは爆増するかと。

個人的には、

「女性の顔については、古今東西、大体同じ評価尺度が存在することが、心理学の分野で判明している。一方、男性の顔の魅力については、複数の評価尺度があるといわれている。 という話も面白い。”男の魅力”に関してはもっと動物的な感じで、権力的なものが男性の魅力としてカウントされる側面も多分にありますしね…

ちなみに、「顔の数値化」は過去にもいろんな人がトライしていて、クリエイティブラボpartyも2016年にDeeplooksというウェブアプリを出してます。

(追記)すでにディスりがまとめられていました。なんというか、こういうのは「できるからやった」感が強いと思っています。人間の顔の定量的な分析は昔から多くの人の興味分野で、「平均顔」とか「信頼を得やすい顔」とかと同じ話の延長にあるだけかと。

④ハチに学ぶ効率的な脳の仕組み

gigazine.net

面白い! ハチがゼロという概念を持ってるっぽいぞというための実験方法が意外にシンプルなのも面白いです。 で、生物学的な発見として、ハチにも数字の概念あるのかもね、すごいねってだけではなく、話のオチとして

人間の脳には800億個の神経細胞があるのに対して、ミツバチにある神経細胞は100万個未満だとのこと。少ないニューロンにもかかわらず高度な知能を備えたミツバチの脳を研究することで、より少ないニューロンで高度な計算を行えるメカニズムを解明できれば、ニューラルネットワーク技術を活用するAI技術にも転用できるのではないかと期待されています。

と、人工知能的な話に向かってるのに時代を感じますねー。

ちょっと話が脱線しますが、毎週楽しみに聞いてる今週のバイリンガルニュースで、もしも地球外知的生命体に遭遇したら実際はどうやって意思疎通をとるかというワークショップが学会で開かれたという話が紹介されてました。

実際は言語交渉よりもまずは数学の概念を使った意思疎通を試みるとのことです。確かに数学的概念の方が人間言語よりは共通理解を得られそうな気がしてなるほどーという感じなんですが、ハチよろしく、数学的な概念を持ってる生物は実はもっといたりすると面白いですね。アリとかもわかってそう。猫は何もわかってなさそう。

Appleも出した”GUI機械学習”。使いどころが未だにわからない…

shu223.hatenablog.com

WWDC18でAppleGUIで操作する機械学習モデル”Create ML”を発表。macOS 10.14 Mojaveから使えるそうです。 実質3行ほどのコードを書くだけで画像分類的なタスクがGUIで完了する、らしい。

Googleもプログラミング不要のAutoMLを出していて、両モデルとも、”ドラッグアンドドロップインターフェイスで実行できる!”というのが大切らしいが、未だに「これで流行るのだろうか…どういいった人がどんなときに使うのだろうか…」という疑問を抱え続けている…

GUI機械学習、実際はどこまで広まるだろうか。

⑥子どもたちが鉛筆を振る未来が見える…見えるぞ…!

nlab.itmedia.co.jp

子供向けIoTネタ。 鉛筆に加速度計をつけ、勉強した時間を計測してポイントを貯め、アプリ内の謎の生き物(?)を育てるゲーミフィケーションアプリ。 シンプルなのにたしかに楽しそうで、「やられた!!!」と思ってる人も少なくなさそう。

謎の生き物をもっとデジモンとかムシキング的なキャラクターにできると新たなウンコ漢字ドリル的キラーコンテンツにならないかしら。 まぁ流行ったら流行ったで、鉛筆を振るだけの本末転倒作業が始まってしまうのですけど…

個人的には、「え、現代の小学生もまだ鉛筆使ってるんだ」ってちょっと思いました…平成ももう終わるよ…?

⑦なぜ企業は”研究”をすべきか

Preferred Networks における研究活動 | Preferred Research

“日本のDeepMind”こと(敬意を込めて心の中で勝手に呼んでる)、PFNさんの『PFNはなぜ研究をするのか?』についての記事。

日本の機械学習業界でトップを走る企業の”研究活動”に対する姿勢や意義のアイデアが語られていて興味深いです。基本的にはPFNさんのカッコイイ話が書かれている強いリクルーティング記事っぽいですが、”AI研究部署”を持つ企業は一読の価値ありだと思います。すでにトップレベルの技術力を持つPFNさんが、「いや、まだまだやねん、今後ももっと重点的に強化していく予定やで」って言われると他の企業は真顔にならざるをえない。

PFNのような企業で、今すぐ直接お金に結びつかないような研究をする意味はあるのでしょうか?例えば、論文を書こうと思えば貴重な業務の時間をごっそりと使ってしまうことになるし、それを出版すれば社外の人たちに技術を教えてしまうことになります。こう考えると、学術的研究や論文執筆は、会社にとってマイナスの活動のようにすら見えます。

AI活用を目指す多くの企業がこれに対して明確な答えを持っていないと、名ばかりのAI研究部署で優秀な技術者を飼い殺す可能性があって怖いなと感じるこの頃です。

この記事ではこの問に対して、PFN流の「現状には過剰と思える技術を開発する必要性」「外部発表をする意義」「他者とのコラボレーションの価値」などについて説明されています。

個人的にはここがめっちゃかっこよくて好き。

アラン・ケイの「未来を予測する最善の方法は、それを発明することだ」という言葉は、実際にいくつかの分野で世界をリードしたりトップに迫ったりといった成果を出すことができている我々にとって、大きな実感があります。

⑧DeepMindが一連の機械学習アルゴリズムに国際特許出願

ipkitten.blogspot.com

DeepMindが発表していた一連の機械学習アルゴリズムに国際特許出願していたことがわかったという結構びっくりな話。AIをビジネスにしているところは広く関係する話。

特許申請は2016年9月から2016年12月の期間に週にほぼ1回の頻度で出されていたらしく、さらに2016年12月以降に提出された申請はまだ一般公開されていないので、まだまだ他にも出願済みのものがあるかもとのこと。

AIに関する特許取得は世界的なトレンドのようで、もちろんgoogle本社もAI系分野を含めた技術特許を取りまくっている会社。しかしDeepMindの経営理念は「研究コミュニティと人類全体の利益のためのAI研究の発展」としているので、それと特許取得がどう関係しているのかとツッコミが入っている。

DeepMindがある日突然パテントトロールみたいになることは多分無い(そうなったら世界的にAI業界が停滞しそう)と思われますが、悪意を持って利用する人はいくらでもいるので、守るもんは守っとくかという感じであることを期待。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第9号】(2018.5.28~6.3)

f:id:ysdyt:20180430031726p:plain

① 食事療法とか食育って実は馬鹿にできない

個人的に今週一番アツかったネタ。データサイエンスからはちょっと分野が違うかもですが、生物学の分野の話題です(自分がもともと生物学出身なので反応してしまう…)。

てんかん治療に対してはケトン食という脂質をメインに摂取する食事療法が経験的に効くとされ行われていますが、そのメカニズムを科学的に示した研究の話。

以下ざっくりした用語の説明。

  • てんかん・・・慢性の脳疾患。主に18歳までの子供が多く発症し、症状としては全身の痙攣や発作、意識消失などが起こる。てんかんの原因は、大脳神経細胞の電位活動の乱れとされている(「脳の電気的嵐」と例えられるらしい)。発症率は100人に一人ほど。現在の医療では、適切な治療で発作を70~80%の人でコントロール可能であり、多くの人たちが普通に社会生活を送れる。(参考ページ
  • ケトン食療法・・・日本ではマイナーだが、主にイギリス・アメリカなどで行われるてんかん対策の食事療法。摂取エネルギーの60~90%を脂肪で摂り、糖・炭水化物の摂取を極端に減らすことにより、体内でエネルギー源として通常使われている糖を枯渇させ、代わりに脂肪が分解されて生じるケトン体をエネルギー源として利用するというもの。統計的に効果があるとされて実践されている。極端な食事制限を行うため実施には専門医の判断が必要。(参考ページ
  • 腸内細菌叢・・・ヒトや動物の腸内で一定の分布を保ちながら共存している多種多様な腸内細菌の集まり。(人間の体重のうち、2kgほどが腸内にいる細菌の重さと言われている)。人の健康状態にも大きく関与しており、世間的にも研究分野としても最近すごく注目されている。細菌叢は人種によって分布が異なり、また健康な人の腸内には、特定の菌が一定の分布で共生している。病気などになるとそれらの分布が乱れたりすることも知られている。なので、適切な腸内細菌の分布を保つことが健康にもつながるとされている。「糞便移植」という治療法などもあって、健康な人の便から採取した菌を、便秘の人の腸に流し込むと便秘が治るというのもある。(健康な人の健康な菌とその分布を移植する、ということ)
  • 脳腸相関・・・脳と腸は自律神経系や液性因子(ホルモンやサイトカインなど)を介して密に関連していることが知られていて、この双方向的な関連を”脳腸相関”とよぶ。脳と腸の関係性は昔から指摘されていたものの、最近はそれらが科学的にも証明されつつある。(腸内の膨大な数の細菌の遺伝子情報を読めるハードウェア技術や、そこから得られる膨大なデータの分析技術が近年でかなり発達したことが大きく貢献しているっぽい)(参考ページ)

この研究では、ケトン食によって腸内細菌が変化し、その変化が脳内物質の構成に影響し(脳腸相関)、てんかんを抑えるのかもしれないという話らしいです。

オカルトっぽいもの・民間療法・経験的に正しい(理由知らないけど文化的に継承されてきたやり方なども含む)などが、最新の科学技術で証明されるのってめちゃくちゃロマン感じますよね!実は”漢方”とかも科学的なエビデンスがないものの、経験的に効くから今も使われているという感じらしいのですが、こういった話は意外とあるのです…

第7号の「人間は直接見ることのできない頭の後ろ側の情報も無意識に処理している」話のように、人間が知覚していない・言語化できないが”実際には起こっている”ことを、機械が計算力の暴力によって暴いていく話が好き。

② 1企業が遺伝子情報を解き明かす時代。21世紀のサービス設計だ…。

www.itmedia.co.jp

「バストの大きさは遺伝(の可能性がある)だぜ!」ってところに意識を持っていかれがちですが、ちょっと背景について見てみたいところです。

この結果を出したデータは

エムティーアイが運営する生理日管理アプリ「ルナルナ」を利用している女性ユーザー1万1348人から得た、遺伝情報と22の体質に関するWebアンケート結果を分析した とされています。

実はティーエムアイ社は「株式会社エバージーン」という100%子会社を持っていて、そこが”Dear Gene”という遺伝子解析キットの販売を行っています。

1企業がアプリで体質の定性データを集めて、サービスで遺伝子情報の定量データ集めて、それを大学と共同研究して今回の結果を論文にしたぜっていうことであれば、ものすごいかっこいいしどれだけ大変だったんだという…。苦労が忍ばれるってもんですよ。。。

oh,,,

23andmeのような遺伝子解析ベンチャーが登場したころから、こういった方法でデータ集めるとビジネスになるねというアイデアはずっと言われてましたが、ほんとに儲かるかもわからないしハードウェア扱うリスクもきっと少なくないし、実際にやってのけるのは並大抵のことではないはず。ツイッターのコメントなどをみてると、「気持ち悪い」というような感想もチラチラみえるのですが、自分は称賛したいです。21世紀のビジネスだなー。

東大とエムティーアイ社のプレスリリースはこちら

③ また新しい医療診断AIがFDAに認可されたぞ!今度は骨折検知だ!

www.technologyreview.jp

FDAがまた医療診断AIを認可してた。手首のX線画像から骨折箇所を検知してくれる君。 一番最初に認可された医療診断AIは「糖尿病網膜症を検出してくれる君」でしたが、それが今年の4月11日の出来事だったので着々と医療診断AIの認可が進められているっぽい。良い流れ。

SNSの事件事故投稿ツイートは機械学習で探しているらしい

ascii.jp

主要SNSを巡回し、深層学習による画像識別を行って本物の事件事故っぽい内容かどうかを判断するツールを作っている会社の話。サービス開始が2016年4月なのに、NHK・テレビ局・新聞社など130社が導入しているそう。儲かってますな〜。

事故現場の画像をツイートした個人にテレビ局がメンションを飛ばして、画像の利用許可を求めているやりとりを何度か目にしたことがありますが、こういったツールでツイートを見つけていたんですねー。

画像以外にも自然言語処理によって事件事故現場の場所を探したり、画像にある看板などの文字を認識して住所を割り出すようなこともしているらしい。

知り合いが昔、某報道機関でツイッターを巡回してニュースになりそうなツイートを探すというバイトをしていたことがあるらしいのですが、順当に機械化が進んでいていいですね。

⑤ 万引き検知AIの前で死ぬほど堂々と万引きするとどうなるか知りたい

www.itmedia.co.jp

防犯カメラで取得する動画にリアルタイムに姿勢推定を行い、万引き犯独特の動きをする人物を検知すると店員にアラートを飛ばすシステムの話。アラートを受け取った店員は当該者に声掛け(ex.なにかお探しですか?)することで万引きを防止するという運用方法。

Amazon Goのようなシステムがある一方で、防犯カメラを賢くするシステムを作るというのもなんだか面白い感じですね。

来店者の頭や骨格の動きを捉え、万引きが疑われる行動かを判断している。不審な行動は、店舗の形態ごとに異なる。例えば、スーパーマーケットでは、店内を回遊しながらきょろきょろと死角を探す、書店では、棚の前に立ち止まって周囲を確認する――といったように、特徴的な動作をチェックする。

万引きGメンがいるくらいだから(人間でもわかるのだから)、確かに機械的にも実現できそうではある。 実際に都内のドラックストアの実証実験では、年間約350万円の万引き被害が導入後は年間約200万円に減ったらしい(というか万引きされすぎでは…)

初期費用は、AIカメラが1台当たり23万8000円(税別/以下同)。設置・設定費用が別途掛かる。クラウド利用料は、カメラ1台ごとに月額4000円。映像を保存するストレージは月額500円(10GB)から。

儲かりますな〜〜〜

あとはPrecision/Recall(誤検知・見逃し)がどれくらいかとか気になりますね。 ”怪しい動き”を検知するのであれば、死ぬほど堂々と万引きすると検知されないんですかね。AI監視カメラに任せきった店は逆に被害額増える、みたいな。 検知の方法がなんとなく予想できる良いデータサイエンティストの皆さんは、決してprecisionを確認するためにわざと良い感じの物陰に移動したりすごいキョロキョロだけして店員に声かけられるかどうかを試す、みたいなことはやめましょうね。約束だよ!

⑥ 画像認識で鶏舎の死んだ鶏検知。このもやもやする気持ちはなんだろう…

www.itmedia.co.jp

カメラを載せた台車を鶏舎内で走らせ、ゲージ内の様子を撮影。あらかじめ36万枚の画像を学習させたAIが、撮影した動画を分析し、死んだ鶏を検知する仕組みだ。

実証実験では、90%以上の精度で死んだ鶏を検知でき、作業時間を従来の5分の1にできたという。

農協組合員の農場で2017年5月から実証実験を進めており、20年度の実用化を目指す。

人間がやるまでもない作業をすべて機械学習で自動化する活動には全面的に賛成派なのですが、これはなんだかちょっと考えさせられますね。と、いうか、なんでこんなダークな印象の写真をわざわざ掲載したんでしょう、それにもすごくひっかかるのですが。。。

かなりの検知精度、そして明確に作業者の時間が短縮されているそうですが、自動運転と同じく、生き物の命に関する領域にAI的なものが少しでも関与するときはきっと異論もたくさんでるので、それがたとえ家畜に対するものであっても(プレスリリースなどの発表も含め)もう少しセンシティブに取り扱うべきかもしれないなと感じました。

⑦ 深層学習で鉄塔のサビ検知

news.nicovideo.jp

Automagi株式会社は、画像や監視カメラの映像から鉄塔や橋梁のさびの発生の検知や、発生範囲の特定を行うことが可能なAIソリューションを2018年5月29日(火)より提供を開始いたします。

用途が面白いなーと感じたのと、アイキャッチ画像がイカしてますね! おそらくセマンティックセグメンテーションとかでサビ領域の検知をしていると思われますが、サビにもいろんな種類や色があると思うので、これも検知精度が気になるところです。

橋やビルのような大型の建造物は、ドローンやIoT的なセンサーで画像を取得して機械学習で異常を検知する流れがもっと導入されてほしいですね。

高齢者によるAIスピーカー活用事例

note.mu

おばあちゃんへのプレゼントとして娘さんがgoogle homeをプレゼントし、主に「挨拶」「spotifyによる演歌の再生」「孫と一緒に遊ぶネタ」に活用されているという内容。おばあちゃんとスピーカーは家族のように過ごしているというお話。

我が家では、「ちょっとは使えたけど、まぁだいたい実用的ではないなあ」「一周してPCとスマホのほうが早いしラクだわ」と感じてほぼほぼ封印状態にあるAIスピーカーなのですが、この単純なタスクしか処理できない微妙な人工無脳感が高齢者や小さな子ども相手にはちょうど良い感じなのかもしれません。spotifyの演歌プレイリストは良い感じっぽい。

文書の途中以降は有料なので買って最後まで読んでみましたが、主には「なぜAmazon EchoではなくGoogle Homeを選んだか」というお話が続きます。有料なので詳細は書きませんが、確かに言われてみれば、Googleは検索の会社だったので回答できるバリエーションが多いですし、リテラシーの余り高くない高齢者や子供にはGoogle HomeのUIのほうが扱いやすいのかもしれないなー、という内容でした。

⑨ え、深層学習をビジネス活用?古今東西、趣味の力が一番強いんだよ!!!

第8号でも紹介した、GANで美少女イラストを生成するMakeGirlsMoeでも有名な@_aixileさんの最新作。写真からアニメ画像への変換。CycleGANの改良らしいですが、なんだこのクオリティーは…。”Ongoing work Still improving it”らしい… 御本人の解説動画はこちら

複雑系生物の動きを可視化する技術

wired.jp

ハチを捕まえて物理的にQRコードをくっつけて、めちゃくちゃ精査に活動を観察したところ、社畜のように機械的で無個性っぽい彼らが、個体レベルでは個性的だったことがわかったという話。PLOSONEに掲載された論文が元ネタなので、この日本語記事ではそこまで詳細な話が載っていない。また元論文はハチの生態というよりはトラッキング技術の開発話がメインのようです。

ハチのような典型的な複雑系の活動をする生き物は個々にトラッキングを行い、それを網羅的に解析する手法が良さそうです。意外にもそういった”データで殴る”系の研究はあまり進んでいないのかもしれない。(タグを付けられるハチへの負担もありますしね…)

こういった研究でハチの具体的な活動や役割がわかれば、「薬剤の影響を調べる実験」などにも貢献できるという話が面白かったです。確かに、そもそもハチの普段の行動を理解できていないと、たとえ薬剤投与を行って死ななかったとしても、本来の役割をこなせないゾンビみたいな状態になっていても「死ななかったから安全」という判定となり、本来の実験の意味が全くなくなってしまわけです。

さすがに画像認識技術だけでハチを個別に識別するのは難しそうなので、こういったハード側の技術を導入しなければいけないっぽいです。研究の世界は大変だ。

⑪ デザイナー考案の効果的な可視化方法がPythonモジュールになるまで

myenigma.hatenablog.com

たぶんこんな感じのtwitter上の流れで進んできた話。

そして最後に、一番上記の記事が公開されたようです。 可視化のデザインブログが公開されてからたった2週間で有志によってpythonモジュール実装された… きっとお互いに面識のないtwitter上の知り合いだと思うのですが、あっという間にラッパー的なものが出来上がってすごい。This is the Internet!

それにしても、描画ライブラリといえば我々はこれまでもmatplotlib, ggplot, Seaborn, PandasPlot, plotly, Bokehなどに都度都度 筆を持ち替え戦い続けてきたのですけど、いつになったらこの戦いは終わるのだ…

⑫ 赤ちゃんの鳴き声を機械学習して泣いている理由を教えてくれる”バウリンガル”的なアプリ

wired.jp

カリフォルニア大学ロサンゼルス校(UCLA)のコンピューター神経心理学者が作った、「赤ちゃんの泣いている理由」を教えてくれる無料アプリについて。

赤ちゃんの泣き声のうち、「おなかがすいた!」「おむつを替えて!」「痛い!」のどれなのかを識別してくれる。1700人を超える赤ちゃんの泣き声を収集し学習させ作成したらしいです。

新米お母さんはともかく、第2子、第3子を生んだお母さんが「鳴き声を聞くだけでおっぱいかオムツかわかる」という声は割とよく聞くので、それならたしかに機械が学習することも可能かもしれません。 またこのアプリは、泣き声の不規則性から自閉症の診断ができるようになることも目指しているらしいです。

こういった、子育て分野にITを導入するムーブメントは”BabyTech”とも呼ばれていて、個人的にも非常に関心が高い分野です。

最近自分が知ったなかで面白かったものは、Openposeで”うつ伏せ寝”の検知を行ったり、睡眠アプリで睡眠時間を記録して”ネントレ”(赤ちゃんの睡眠時間をある程度コントロールする)を行うなどかなり面白いし便利そうです。データドリブンに育児をしたり、機械学習に一部代用させたりする流れはきっともっと大きくなると思います。

⑬ ものすごいメンツの企業が過去最大のデータ共有の取り組みを始めたけどうまくいく未来が全然見えない…

www.nikkei.com

コンビニ同士の闘いからは完全に抜きん出てしまったセブン&アイグループが、さらに未来的な取り組みを他業界と始めたそうです。

セブン&アイ・ホールディングスは、データ活用のための取り組みとして、6月1日に「セブン&アイ・データラボ」を開始した。 同ラボは、幅広い業界の参加企業がそれぞれ保有する豊富な統計データの相互活用から新たな知見を得ることで、課題解決を目指す。 参加企業はANAホールディングス株式会社、株式会社NTTドコモ、株式会社ディー・エヌ・エー東京急行電鉄株式会社、東京電力エナジーパートナー株式会社、株式会社三井住友フィナンシャルグループ三井物産株式会社の10社 企業間におけるビッグデータの連携としては、過去最大級の取り組みとなります。

メンツがすごすぎる。一体なんだこれは… そして、これからの時代はアルゴリズムでは差がつかないから、各企業がどれだけオリジナルなデータを大量に持てるかどうかが戦い、といっているときに、「企業間でデータ共有しようね」という取り組みがうまくいく未来が微塵も見えないのですがどうなんでしょう…。わりと普通に謎プロジェクトだ…。 詳しい情報は現在まだ出ていないようなので続報を待ちましょう。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第8号】(2018.5.21~5.27)

f:id:ysdyt:20180430031726p:plain

① 五万回くらい頷いたし、全ページニヤニヤが止まらないので分析官は電車閲覧注意なスライド

docs.google.com

分析案件あるあるなパターンをまとめたスライド。完全なアリよりのアリでマジ卍すぎて苦笑がとまらない。

@chezouさんによるkawasaki.rbでの発表資料。 機械学習工学研究会で話足りなかったことを話されたスライドのようです。機械学習工学会のスライドとの砕け方の落差が好き。

個人的に一番笑ったのは、

「我が社はデータが山のようにあって」 「はいはい、MySQLに1億レコードね」

② いろんなGAN

ラーメン二郎生成といえば@knjcodeですね。もはやラーメン屋。

それにしてもGAN生成の連続画のゾワゾワする感じはなんなんでしょうか…悪夢っぽい。

どうでもいんですが、twitterの縦に流れるUIって、こういったショート動画載せるには一覧性やお手軽さ的に最強のメディアだと思うのです。ユニークなGAN動画があつまるハッシュタグとかあればちょっとしたアート作品になりそう。

③ 画像認識を使った麻雀支援アプリが良さそう

mj-news.net

東北大学の学生5名チームが、学生向けハッカソン「JPHACKS2017」で麻雀支援アプリを作成し、審査員特別賞の他4つの企業賞を同時受賞した話。麻雀牌の画像認識には機械学習が使われているっぽい。

完成度は高そうですが、現在は一般にリリースされているわけではないようです。めちゃくちゃ大きなニーズとまではいかなくても確実なニーズはありそう。

牌の画像認識をどうやっているのか技術詳細は不明ですが、SSDで牌の検知を試みたこちらの記事によると、牌中に繰り返し現れる構造などもあり、単純には難しい模様。また、牌のデザインは製品によって微妙に異なると思われるので、そのへんをどこまでカバーできているのかも気になるところです。

④(悲報)新たに「共感モデル」が搭載されたりんな氏、既読スルーを覚える

pc.watch.impress.co.jp

りんなに新しいモデルが搭載され、「新しい話題を切り出す」「質問する」「相手の発言を肯定する」「相づちを打つ」が出来るようになったらしい。マジかよだいたいのコミュ障を越えたじゃん!!!

「共感モデルは、できるだけ相手と長く会話を続けるのが目的である。会話の目的を意識して、戦略的に自分の返答を生成することを目指すことになる。これまでは、一度学習したものをベースに、脊髄反射のような反応していたが、過去のセッションの状況と、いまやってきた変動内容を加味して返事をするようにしている」

そんな難しいことが現状の自然言語処理技術でできるのか…ということで、実際に自分でもりんなと会話していろいろ試してみたところ、それほど前とは変わらないようにも感じる。。。

第6号にもあったGoogleのDuplexは、「予約に関する電話会話」に特化させて学習することであそこまで自然な応答を可能にしていますが、りんなのように「自然会話」を成立させるのは段違いに難しいですね…。そもそも我々が何を持って雑談を「自然」だと思っているのか、定義も難しいですし。

なお、共感獲得の末、嘘か真か既読スルーも覚えた模様。機械にも無視される人類。

⑤ 今週のドジっ子Alexaちゃん話

www.itmedia.co.jp

www.itmedia.co.jp

Alexaのオチャメ(?)な誤処理話について。 2つの記事はそれぞれ、

  1. 「アレクサ」という音を自分に向けたコマンドと誤認して処理をスタート -> 処理待ち状態のところに、意図していないアクションを指示したかのように処理されてしまった。
  2. オウムが話した言葉を人間からの指示として処理した という原因のようです。

1についてのアマゾン側見解は、

「Alexa」のように聞こえる音声で起動したEchoがその後の会話の中で「メッセージを送信」と命令されたと受け取ってしまい、その段階でAlexaは「誰に?」と尋ねたが、続いている会話の中からユーザーの連絡先リストにある人の名前を聞いてしまったと説明した。

「そんなことある?」って感じだし、2に関しては絶対オウムネタやる人出るやん…と思ってましたが、とにかく、スピーカーへの音声コマンドトリガーがまだまだ技術的にも運用的にも発展途上のために起こったようです。

明示的にコマンドのスタートワード(「ねえぐーぐる」や「あれくさ」)を教えてあげること自体がそもそも面倒であるものの、でもそれをしないと技術的には音声コマンドを受け取ることが難しい。それぞれを解決するには、

1 -> 会話の文脈を理解しないといけない。自分に向けた発話なのか、自分以外の人への発話なのか。 2 -> 命令を発しうる人(家族とか)の音声別識別ができないといけない。登録者以外の命令は受け付けない。

Alexaの目となるもの(室内画像のデータもインプットに追加するなど)があれば話はまた違うのでしょうが、音声だけでもそれぞれの技術的な課題の解決は時間の問題という気もするのでAlexaちゃんが賢くなる日を待ちましょう。(きっとすぐ追いついてくれるハズ)

⑥「Data engineers」「data scientists」、そして「MachineLearning Engineers」の棲み分け

medium.com

『「データサイエンティスト」と「データエンジニア」は仕事の領分も必要スキルも違うのでちゃんと分けて考えような』ってお話。海外記事の和訳記事。

「データサイエンティスト」と「データエンジニア」の区別はまだまだ道半ばな感じですが、でも実際どう違うの?ってことをいい感じに言語化してくれている記事です。良い記事なんですが、なんでタイトルが「vs.」ってなってるのかは謎。二項対立戦争はダメってエディター戦争のときに約束したでしょ!!!

データ分析とシステム構築はもちろん分けてやったほうが良いのですが、データ分析官ももはやシステム構築や処理に関する知識がないと分析用のデータを取り出すことすらできない場合もあるというのもまた事実。 自分の周りの分析官にも「最近なに勉強してますか」と聞くと「システム構築周りのこと」と答える人も少なくない感じです。そして勉強熱心な分析官は実際にシステム構築周りのことにも興味があるので、結局は「デキる分析官」がシステム構築にも携わっているなんてこともアルアルかもです。

⑦ またメルカリデータ分析チームの記事…悔しいけど欠かさず読んでる…

webtan.impress.co.jp

アナリティクスサミット2018で登壇されたメルカリの分析部のトークについてのまとめ記事。

メルカリの分析部は、この数ヶ月だけでもかなり積極的に情報公開・発信されていて、サービス規模に対して7人という少人数チームながら事業会社の分析チームとしてはすでに確固たるポジションを築いている気がします。 会社のデータを見る仕事なのでなかなか外部に向けて発信しにくいはずですが、「分析哲学」や「採用基準」などの話も混ぜ込んだり、さまざまなことがロジカルに整理され言語化されているので「ためになるなー」感がすごいです。

なんだかかっこよくて悔しいのであまりメルカリ関係の記事読みたくないのですが、TLに流れてくるたびに我慢できずに踏み、「ぐぬぬ」と思いながら読み、「良い記事だった…」と閉じることを繰り返しています。悔しい…!

メルカリ関係の直近の記事は、第1号,2号,3号,7号にもありますのでメルカリファンの方はどうぞ。

さらに余談ですが、メルカリさんはpodcastもやっていて、分析マネージャー樫田さんが話されている回(※2017年2月公開なのでちょっと古い)もあります。

⑧「あなたにとっての報酬はなにか?」がいつか機械学習でバレる時代がくる…?

news.mynavi.jp

これは面白いやつ。

逆強化学習によって線虫(C. elegans)における行動時系列データから、線虫の「報酬」が何かを推定したという京大の研究結果について。推定された報酬を用いて線虫行動をコンピュータでシミュレーションした結果でもモデルの妥当性が確認されたそうです。

強化学習と逆強化学習の違いは、

強化学習は、どの状況でどれくらい報酬を得られるのかはあらかじめ決められており、試行錯誤によって得られる報酬を最適化する行動戦略を見つけ出すことが目的とするもの。一方の逆強化学習では、動物はすでに最適な行動戦略を獲得しているとして、計測された行動時系列データから未知の報酬を推定することが目的になる。

研究の目的は、

線虫がどのような戦略にしたがって行動しているのかはこれまで謎だった。そこで同グループは、線虫を温度勾配においてトラッキングすることで、行動時系列データを取得し、逆強化学習法により、線虫にとって何が報酬となっているのかを推定した。

結果的には、良い感じに計算モデルによって線虫の行動戦略がバレてしまったようなんですが、さて、人間はどうなんでしょう…

我々は自由意志と理性によってさまざまな選択を行い、それぞれに個性を発揮して自由に生きているはずですが、いつかAI的なものが我々の膨大で詳細な行動ログなどを解析できる時代がくれば、実は全員が少数の特定の「報酬」を目指して生きていることが判明したら…。SF映画化待ったなし。

⑨ 虫でpose estimation

CNNによるfast animal(動きが早い動物)のpose estimation。論文ではハエとマウスでの結果例が紹介されている。

まだ中身は読めていないけど、線虫の話を読んでいたときにTLに流れてきたのでアイキャッチ負け(ジャケ買い的な意味)してリンクを踏んでしまったやつ。推定動画がなんかかわいい。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。