WEEKLY人工無脳【第10号】(2018.6.4~6.10)
①きゅうり農家小池さん『俺が人工知能だ!!!』
機械学習界隈で「きゅうり」といえば知らない人はいない小池さんのきゅうりマシン奮闘記の振り返りとこれから的なお話。 実は筆者が人生で初めてバズった記事がきゅうりマシンを紹介した記事だったりするので個人的にファンでずっと応援してます。
何はともあれ、誰もが注目してしまうのはここでしょう。
1.4倍の作業スピードの向上が図れたが、半年後にはわたしの判断能力が向上したため現在は使っていない。
学習用の正解データ作りすぎて「俺が人工知能だ!」状態。
め っ ち ゃ わ か る … !!! 完全に機械学習アルアルです。
「当初は完全自動化を目指したが、最終的には”人間のサポート”役と位置付けた』という話も納得しか無い。 人間が行うリアル世界の活動を完全に機械学習で完全に代替えする難しさを実地で実践されてて尊い。
この記事も、「いろいろやったけど最終的に無理でしたわー」という話ではなく、人間のサポート役とした三号機はきゅうり仕分け作業の初心者や未経験者には効果的なのではと説明しつつ、
8月には4号機を完成させたい。最終的には、自動収穫ロボットを開発できればと考えている。農業の効率化にテクノロジーを活用し、品質向上や収量の増加、栽培ノウハウの継承に取り組んでいければ理想的だ
相変わらずカッコイイです小池さん。
②デジタルアートと機械学習系APIはきっと相性が良い
cloudplatform-jp.googleblog.com
紅白歌合戦などでもPerfumeライブの特殊演出はすっかり有名になりましたが、それを手がけているのがライゾマティクスというメディアアート集団です。個人的には超大好き。
そのライブの特殊演出に、ライゾマはGoogleの機械学習APIを使っているというお話。具体的には
- 一般から募集しアップロードされた約23,000枚の写真をリアルタイムに画像解析し、PerfumeのMVの類似したフレームを検索するインタラクティブコンテンツとして公開。ライブ当日もステージ上の演出素材として活用
- perfumeのすべてのMVからフレーム画像を作成し、tensorflowで画像分類。t-SNEで二次元に潰してコラージュ画像を作成
というもの。
GoogleやMSが提供する機械学習系のAPIは、ビジネスに使うには少し痒いところに手が届かない・利用料金が高い・精度が微妙に足りないという部分もあるものの、デジタルアートの一部として活用されるのは非常に親和性が高そう。特に、2つ目の作品は個人でも作れそうなので、こういった趣味活動をして名を挙げるメディアアーティスト的な人は増えそうですね。
③可視化業界のタブー?「顔の美しさ」を数値化
Microsoftの年次イベント「de:code 2018」で東大の研究室が発表した「女性の顔の綺麗さを機械的に数値化する」技術の話。
正確には、「人工知能が女性の顔の“魅力度”を判定し、最も魅力が高まるような化粧を推薦してくれる」と謳われているが、本質的には「人間(特に女性)の顔の美醜の数値化」であると思う。(そのまま言ったら絶対に炎上するので良い感じに見せ方を変えたのだと…)
機械学習を勉強して、なにかオリジナルのアプリ的なものを作ろうとした人は必ずは一度は考えたであろうネタを、東大研究室がガチでやってて草。でも誰もが取り組みたくなる魅力はありますよねー。わかる。
手法としては、女性の顔の美醜を人間が点数化(1~5点)し、それを教師データとして顔画像を学習させたらしい。結果、実際に人間の評価と比べても非常に強い相関が見られた(相関係数0.85程度)とのことでなんだかんだすごい。デモで出されている結果写真をみてもわからんこともない。
不謹慎と言われるかもですが、こういった機能をマッチングサイトとかは真面目に実装すればいいのになと思ったりもします。”顔の好み”を数値化してレコメンドに活かすとかすれば、批判もあるでしょうが間違いなくユーザーは爆増するかと。
個人的には、
「女性の顔については、古今東西、大体同じ評価尺度が存在することが、心理学の分野で判明している。一方、男性の顔の魅力については、複数の評価尺度があるといわれている。 という話も面白い。”男の魅力”に関してはもっと動物的な感じで、権力的なものが男性の魅力としてカウントされる側面も多分にありますしね…
ちなみに、「顔の数値化」は過去にもいろんな人がトライしていて、クリエイティブラボpartyも2016年にDeeplooksというウェブアプリを出してます。
(追記)すでにディスりがまとめられていました。なんというか、こういうのは「できるからやった」感が強いと思っています。人間の顔の定量的な分析は昔から多くの人の興味分野で、「平均顔」とか「信頼を得やすい顔」とかと同じ話の延長にあるだけかと。
④ハチに学ぶ効率的な脳の仕組み
面白い! ハチがゼロという概念を持ってるっぽいぞというための実験方法が意外にシンプルなのも面白いです。 で、生物学的な発見として、ハチにも数字の概念あるのかもね、すごいねってだけではなく、話のオチとして
人間の脳には800億個の神経細胞があるのに対して、ミツバチにある神経細胞は100万個未満だとのこと。少ないニューロンにもかかわらず高度な知能を備えたミツバチの脳を研究することで、より少ないニューロンで高度な計算を行えるメカニズムを解明できれば、ニューラルネットワーク技術を活用するAI技術にも転用できるのではないかと期待されています。
と、人工知能的な話に向かってるのに時代を感じますねー。
ちょっと話が脱線しますが、毎週楽しみに聞いてる今週のバイリンガルニュースで、もしも地球外知的生命体に遭遇したら実際はどうやって意思疎通をとるかというワークショップが学会で開かれたという話が紹介されてました。
実際は言語交渉よりもまずは数学の概念を使った意思疎通を試みるとのことです。確かに数学的概念の方が人間言語よりは共通理解を得られそうな気がしてなるほどーという感じなんですが、ハチよろしく、数学的な概念を持ってる生物は実はもっといたりすると面白いですね。アリとかもわかってそう。猫は何もわかってなさそう。
⑤Appleも出した”GUIで機械学習”。使いどころが未だにわからない…
WWDC18でAppleもGUIで操作する機械学習モデル”Create ML”を発表。macOS 10.14 Mojaveから使えるそうです。 実質3行ほどのコードを書くだけで画像分類的なタスクがGUIで完了する、らしい。
Googleもプログラミング不要のAutoMLを出していて、両モデルとも、”ドラッグアンドドロップのインターフェイスで実行できる!”というのが大切らしいが、未だに「これで流行るのだろうか…どういいった人がどんなときに使うのだろうか…」という疑問を抱え続けている…
⑥子どもたちが鉛筆を振る未来が見える…見えるぞ…!
子供向けIoTネタ。 鉛筆に加速度計をつけ、勉強した時間を計測してポイントを貯め、アプリ内の謎の生き物(?)を育てるゲーミフィケーションアプリ。 シンプルなのにたしかに楽しそうで、「やられた!!!」と思ってる人も少なくなさそう。
謎の生き物をもっとデジモンとかムシキング的なキャラクターにできると新たなウンコ漢字ドリル的キラーコンテンツにならないかしら。 まぁ流行ったら流行ったで、鉛筆を振るだけの本末転倒作業が始まってしまうのですけど…
個人的には、「え、現代の小学生もまだ鉛筆使ってるんだ」ってちょっと思いました…平成ももう終わるよ…?
⑦なぜ企業は”研究”をすべきか
Preferred Networks における研究活動 | Preferred Research
“日本のDeepMind”こと(敬意を込めて心の中で勝手に呼んでる)、PFNさんの『PFNはなぜ研究をするのか?』についての記事。
日本の機械学習業界でトップを走る企業の”研究活動”に対する姿勢や意義のアイデアが語られていて興味深いです。基本的にはPFNさんのカッコイイ話が書かれている強いリクルーティング記事っぽいですが、”AI研究部署”を持つ企業は一読の価値ありだと思います。すでにトップレベルの技術力を持つPFNさんが、「いや、まだまだやねん、今後ももっと重点的に強化していく予定やで」って言われると他の企業は真顔にならざるをえない。
PFNのような企業で、今すぐ直接お金に結びつかないような研究をする意味はあるのでしょうか?例えば、論文を書こうと思えば貴重な業務の時間をごっそりと使ってしまうことになるし、それを出版すれば社外の人たちに技術を教えてしまうことになります。こう考えると、学術的研究や論文執筆は、会社にとってマイナスの活動のようにすら見えます。
AI活用を目指す多くの企業がこれに対して明確な答えを持っていないと、名ばかりのAI研究部署で優秀な技術者を飼い殺す可能性があって怖いなと感じるこの頃です。
この記事ではこの問に対して、PFN流の「現状には過剰と思える技術を開発する必要性」「外部発表をする意義」「他者とのコラボレーションの価値」などについて説明されています。
個人的にはここがめっちゃかっこよくて好き。
アラン・ケイの「未来を予測する最善の方法は、それを発明することだ」という言葉は、実際にいくつかの分野で世界をリードしたりトップに迫ったりといった成果を出すことができている我々にとって、大きな実感があります。
⑧DeepMindが一連の機械学習アルゴリズムに国際特許出願
DeepMindが発表していた一連の機械学習アルゴリズムに国際特許出願していたことがわかったという結構びっくりな話。AIをビジネスにしているところは広く関係する話。
特許申請は2016年9月から2016年12月の期間に週にほぼ1回の頻度で出されていたらしく、さらに2016年12月以降に提出された申請はまだ一般公開されていないので、まだまだ他にも出願済みのものがあるかもとのこと。
AIに関する特許取得は世界的なトレンドのようで、もちろんgoogle本社もAI系分野を含めた技術特許を取りまくっている会社。しかしDeepMindの経営理念は「研究コミュニティと人類全体の利益のためのAI研究の発展」としているので、それと特許取得がどう関係しているのかとツッコミが入っている。
DeepMindがある日突然パテントトロールみたいになることは多分無い(そうなったら世界的にAI業界が停滞しそう)と思われますが、悪意を持って利用する人はいくらでもいるので、守るもんは守っとくかという感じであることを期待。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第9号】(2018.5.28~6.3)
① 食事療法とか食育って実は馬鹿にできない
ケトン食(高脂肪・低糖質食)はてんかんの治療に用いられているが、その効果は腸内細菌叢を変化させることを通じ脳内のGABA/グルタミン酸比を変化させることによるものであることを示したCell論文。もし本当であればすごいし、かなり画期的。https://t.co/z7ZOZkZhEV
— 何者でもないおっさん (@tsuyomiyakawa) 2018年5月30日
個人的に今週一番アツかったネタ。データサイエンスからはちょっと分野が違うかもですが、生物学の分野の話題です(自分がもともと生物学出身なので反応してしまう…)。
てんかん治療に対してはケトン食という脂質をメインに摂取する食事療法が経験的に効くとされ行われていますが、そのメカニズムを科学的に示した研究の話。
以下ざっくりした用語の説明。
- てんかん・・・慢性の脳疾患。主に18歳までの子供が多く発症し、症状としては全身の痙攣や発作、意識消失などが起こる。てんかんの原因は、大脳神経細胞の電位活動の乱れとされている(「脳の電気的嵐」と例えられるらしい)。発症率は100人に一人ほど。現在の医療では、適切な治療で発作を70~80%の人でコントロール可能であり、多くの人たちが普通に社会生活を送れる。(参考ページ)
- ケトン食療法・・・日本ではマイナーだが、主にイギリス・アメリカなどで行われるてんかん対策の食事療法。摂取エネルギーの60~90%を脂肪で摂り、糖・炭水化物の摂取を極端に減らすことにより、体内でエネルギー源として通常使われている糖を枯渇させ、代わりに脂肪が分解されて生じるケトン体をエネルギー源として利用するというもの。統計的に効果があるとされて実践されている。極端な食事制限を行うため実施には専門医の判断が必要。(参考ページ)
- 腸内細菌叢・・・ヒトや動物の腸内で一定の分布を保ちながら共存している多種多様な腸内細菌の集まり。(人間の体重のうち、2kgほどが腸内にいる細菌の重さと言われている)。人の健康状態にも大きく関与しており、世間的にも研究分野としても最近すごく注目されている。細菌叢は人種によって分布が異なり、また健康な人の腸内には、特定の菌が一定の分布で共生している。病気などになるとそれらの分布が乱れたりすることも知られている。なので、適切な腸内細菌の分布を保つことが健康にもつながるとされている。「糞便移植」という治療法などもあって、健康な人の便から採取した菌を、便秘の人の腸に流し込むと便秘が治るというのもある。(健康な人の健康な菌とその分布を移植する、ということ)
- 脳腸相関・・・脳と腸は自律神経系や液性因子(ホルモンやサイトカインなど)を介して密に関連していることが知られていて、この双方向的な関連を”脳腸相関”とよぶ。脳と腸の関係性は昔から指摘されていたものの、最近はそれらが科学的にも証明されつつある。(腸内の膨大な数の細菌の遺伝子情報を読めるハードウェア技術や、そこから得られる膨大なデータの分析技術が近年でかなり発達したことが大きく貢献しているっぽい)(参考ページ)
この研究では、ケトン食によって腸内細菌が変化し、その変化が脳内物質の構成に影響し(脳腸相関)、てんかんを抑えるのかもしれないという話らしいです。
オカルトっぽいもの・民間療法・経験的に正しい(理由知らないけど文化的に継承されてきたやり方なども含む)などが、最新の科学技術で証明されるのってめちゃくちゃロマン感じますよね!実は”漢方”とかも科学的なエビデンスがないものの、経験的に効くから今も使われているという感じらしいのですが、こういった話は意外とあるのです…
第7号の「人間は直接見ることのできない頭の後ろ側の情報も無意識に処理している」話のように、人間が知覚していない・言語化できないが”実際には起こっている”ことを、機械が計算力の暴力によって暴いていく話が好き。
② 1企業が遺伝子情報を解き明かす時代。21世紀のサービス設計だ…。
「バストの大きさは遺伝(の可能性がある)だぜ!」ってところに意識を持っていかれがちですが、ちょっと背景について見てみたいところです。
この結果を出したデータは
エムティーアイが運営する生理日管理アプリ「ルナルナ」を利用している女性ユーザー1万1348人から得た、遺伝情報と22の体質に関するWebアンケート結果を分析した とされています。
実はティーエムアイ社は「株式会社エバージーン」という100%子会社を持っていて、そこが”Dear Gene”という遺伝子解析キットの販売を行っています。
1企業がアプリで体質の定性データを集めて、サービスで遺伝子情報の定量データ集めて、それを大学と共同研究して今回の結果を論文にしたぜっていうことであれば、ものすごいかっこいいしどれだけ大変だったんだという…。苦労が忍ばれるってもんですよ。。。
なかのひとが言うには3〜4年越しの成果らしいですよ
— 機械の体を手に入れるのよ鉄郎 (@tetsuroito) 2018年6月2日
oh,,,
23andmeのような遺伝子解析ベンチャーが登場したころから、こういった方法でデータ集めるとビジネスになるねというアイデアはずっと言われてましたが、ほんとに儲かるかもわからないしハードウェア扱うリスクもきっと少なくないし、実際にやってのけるのは並大抵のことではないはず。ツイッターのコメントなどをみてると、「気持ち悪い」というような感想もチラチラみえるのですが、自分は称賛したいです。21世紀のビジネスだなー。
③ また新しい医療診断AIがFDAに認可されたぞ!今度は骨折検知だ!
FDAがまた医療診断AIを認可してた。手首のX線画像から骨折箇所を検知してくれる君。 一番最初に認可された医療診断AIは「糖尿病網膜症を検出してくれる君」でしたが、それが今年の4月11日の出来事だったので着々と医療診断AIの認可が進められているっぽい。良い流れ。
④ SNSの事件事故投稿ツイートは機械学習で探しているらしい
主要SNSを巡回し、深層学習による画像識別を行って本物の事件事故っぽい内容かどうかを判断するツールを作っている会社の話。サービス開始が2016年4月なのに、NHK・テレビ局・新聞社など130社が導入しているそう。儲かってますな〜。
事故現場の画像をツイートした個人にテレビ局がメンションを飛ばして、画像の利用許可を求めているやりとりを何度か目にしたことがありますが、こういったツールでツイートを見つけていたんですねー。
画像以外にも自然言語処理によって事件事故現場の場所を探したり、画像にある看板などの文字を認識して住所を割り出すようなこともしているらしい。
知り合いが昔、某報道機関でツイッターを巡回してニュースになりそうなツイートを探すというバイトをしていたことがあるらしいのですが、順当に機械化が進んでいていいですね。
⑤ 万引き検知AIの前で死ぬほど堂々と万引きするとどうなるか知りたい
防犯カメラで取得する動画にリアルタイムに姿勢推定を行い、万引き犯独特の動きをする人物を検知すると店員にアラートを飛ばすシステムの話。アラートを受け取った店員は当該者に声掛け(ex.なにかお探しですか?)することで万引きを防止するという運用方法。
Amazon Goのようなシステムがある一方で、防犯カメラを賢くするシステムを作るというのもなんだか面白い感じですね。
来店者の頭や骨格の動きを捉え、万引きが疑われる行動かを判断している。不審な行動は、店舗の形態ごとに異なる。例えば、スーパーマーケットでは、店内を回遊しながらきょろきょろと死角を探す、書店では、棚の前に立ち止まって周囲を確認する――といったように、特徴的な動作をチェックする。
万引きGメンがいるくらいだから(人間でもわかるのだから)、確かに機械的にも実現できそうではある。 実際に都内のドラックストアの実証実験では、年間約350万円の万引き被害が導入後は年間約200万円に減ったらしい(というか万引きされすぎでは…)
初期費用は、AIカメラが1台当たり23万8000円(税別/以下同)。設置・設定費用が別途掛かる。クラウド利用料は、カメラ1台ごとに月額4000円。映像を保存するストレージは月額500円(10GB)から。
儲かりますな〜〜〜
あとはPrecision/Recall(誤検知・見逃し)がどれくらいかとか気になりますね。 ”怪しい動き”を検知するのであれば、死ぬほど堂々と万引きすると検知されないんですかね。AI監視カメラに任せきった店は逆に被害額増える、みたいな。 検知の方法がなんとなく予想できる良いデータサイエンティストの皆さんは、決してprecisionを確認するためにわざと良い感じの物陰に移動したりすごいキョロキョロだけして店員に声かけられるかどうかを試す、みたいなことはやめましょうね。約束だよ!
⑥ 画像認識で鶏舎の死んだ鶏検知。このもやもやする気持ちはなんだろう…
カメラを載せた台車を鶏舎内で走らせ、ゲージ内の様子を撮影。あらかじめ36万枚の画像を学習させたAIが、撮影した動画を分析し、死んだ鶏を検知する仕組みだ。
実証実験では、90%以上の精度で死んだ鶏を検知でき、作業時間を従来の5分の1にできたという。
農協組合員の農場で2017年5月から実証実験を進めており、20年度の実用化を目指す。
人間がやるまでもない作業をすべて機械学習で自動化する活動には全面的に賛成派なのですが、これはなんだかちょっと考えさせられますね。と、いうか、なんでこんなダークな印象の写真をわざわざ掲載したんでしょう、それにもすごくひっかかるのですが。。。
かなりの検知精度、そして明確に作業者の時間が短縮されているそうですが、自動運転と同じく、生き物の命に関する領域にAI的なものが少しでも関与するときはきっと異論もたくさんでるので、それがたとえ家畜に対するものであっても(プレスリリースなどの発表も含め)もう少しセンシティブに取り扱うべきかもしれないなと感じました。
⑦ 深層学習で鉄塔のサビ検知
Automagi株式会社は、画像や監視カメラの映像から鉄塔や橋梁のさびの発生の検知や、発生範囲の特定を行うことが可能なAIソリューションを2018年5月29日(火)より提供を開始いたします。
用途が面白いなーと感じたのと、アイキャッチ画像がイカしてますね! おそらくセマンティックセグメンテーションとかでサビ領域の検知をしていると思われますが、サビにもいろんな種類や色があると思うので、これも検知精度が気になるところです。
橋やビルのような大型の建造物は、ドローンやIoT的なセンサーで画像を取得して機械学習で異常を検知する流れがもっと導入されてほしいですね。
⑧ 高齢者によるAIスピーカー活用事例
おばあちゃんへのプレゼントとして娘さんがgoogle homeをプレゼントし、主に「挨拶」「spotifyによる演歌の再生」「孫と一緒に遊ぶネタ」に活用されているという内容。おばあちゃんとスピーカーは家族のように過ごしているというお話。
我が家では、「ちょっとは使えたけど、まぁだいたい実用的ではないなあ」「一周してPCとスマホのほうが早いしラクだわ」と感じてほぼほぼ封印状態にあるAIスピーカーなのですが、この単純なタスクしか処理できない微妙な人工無脳感が高齢者や小さな子ども相手にはちょうど良い感じなのかもしれません。spotifyの演歌プレイリストは良い感じっぽい。
文書の途中以降は有料なので買って最後まで読んでみましたが、主には「なぜAmazon EchoではなくGoogle Homeを選んだか」というお話が続きます。有料なので詳細は書きませんが、確かに言われてみれば、Googleは検索の会社だったので回答できるバリエーションが多いですし、リテラシーの余り高くない高齢者や子供にはGoogle HomeのUIのほうが扱いやすいのかもしれないなー、という内容でした。
⑨ え、深層学習をビジネス活用?古今東西、趣味の力が一番強いんだよ!!!
しゅごい。。。https://t.co/JoPfwiiJdD pic.twitter.com/rQZdX37XW0
— OsciiArt◆SPNEXTcRxQ (@osciiart) 2018年5月31日
第8号でも紹介した、GANで美少女イラストを生成するMakeGirlsMoeでも有名な@_aixileさんの最新作。写真からアニメ画像への変換。CycleGANの改良らしいですが、なんだこのクオリティーは…。”Ongoing work Still improving it”らしい… 御本人の解説動画はこちら
⑩ 複雑系生物の動きを可視化する技術
これは…すごい!…社会性動物の研究手法の新手ですな…
— 久保拓弥 (@KuboBook) May 31, 2018
"ハチにQRコードをつけたら「コロニーの神秘」が明らかになった" https://t.co/3sZx3AvlJT pic.twitter.com/BOQMSwJkcJ
ハチを捕まえて物理的にQRコードをくっつけて、めちゃくちゃ精査に活動を観察したところ、社畜のように機械的で無個性っぽい彼らが、個体レベルでは個性的だったことがわかったという話。PLOSONEに掲載された論文が元ネタなので、この日本語記事ではそこまで詳細な話が載っていない。また元論文はハチの生態というよりはトラッキング技術の開発話がメインのようです。
ハチのような典型的な複雑系の活動をする生き物は個々にトラッキングを行い、それを網羅的に解析する手法が良さそうです。意外にもそういった”データで殴る”系の研究はあまり進んでいないのかもしれない。(タグを付けられるハチへの負担もありますしね…)
こういった研究でハチの具体的な活動や役割がわかれば、「薬剤の影響を調べる実験」などにも貢献できるという話が面白かったです。確かに、そもそもハチの普段の行動を理解できていないと、たとえ薬剤投与を行って死ななかったとしても、本来の役割をこなせないゾンビみたいな状態になっていても「死ななかったから安全」という判定となり、本来の実験の意味が全くなくなってしまわけです。
さすがに画像認識技術だけでハチを個別に識別するのは難しそうなので、こういったハード側の技術を導入しなければいけないっぽいです。研究の世界は大変だ。
⑪ デザイナー考案の効果的な可視化方法がPythonモジュールになるまで
たぶんこんな感じのtwitter上の流れで進んできた話。
最近ご紹介してるデータ視覚化のデザインのポイント #goando_datasketch シリーズをnoteにもまとめました。
— Go Ando / THE GUILD (@goando) 2018年5月20日
文字数的にTwitterで書ききれなかった事も補足してるので、ぜひご覧下さいませ。
データ視覚化のデザイン #1|Go Ando / THE GUILD @goando|note(ノート) https://t.co/zM4NroBfMy
こういう知見をMatplotlibで実現する方法を誰か書いて欲しい / “データ視覚化のデザイン #1|Go Ando / THE GUILD|note” https://t.co/AkKTMhZBdA
— からあげ (@karaage0703) 2018年5月20日
「データ視覚化のデザイン #1」をmatplotlibで実装する https://t.co/zy4WIslFSy #goando_datasketch
— ktrst (@ktrst) 2018年5月23日
そして最後に、一番上記の記事が公開されたようです。 可視化のデザインブログが公開されてからたった2週間で有志によってpythonモジュール実装された… きっとお互いに面識のないtwitter上の知り合いだと思うのですが、あっという間にラッパー的なものが出来上がってすごい。This is the Internet!
それにしても、描画ライブラリといえば我々はこれまでもmatplotlib, ggplot, Seaborn, PandasPlot, plotly, Bokehなどに都度都度 筆を持ち替え戦い続けてきたのですけど、いつになったらこの戦いは終わるのだ…
⑫ 赤ちゃんの鳴き声を機械学習して泣いている理由を教えてくれる”バウリンガル”的なアプリ
カリフォルニア大学ロサンゼルス校(UCLA)のコンピューター神経心理学者が作った、「赤ちゃんの泣いている理由」を教えてくれる無料アプリについて。
赤ちゃんの泣き声のうち、「おなかがすいた!」「おむつを替えて!」「痛い!」のどれなのかを識別してくれる。1700人を超える赤ちゃんの泣き声を収集し学習させ作成したらしいです。
新米お母さんはともかく、第2子、第3子を生んだお母さんが「鳴き声を聞くだけでおっぱいかオムツかわかる」という声は割とよく聞くので、それならたしかに機械が学習することも可能かもしれません。 またこのアプリは、泣き声の不規則性から自閉症の診断ができるようになることも目指しているらしいです。
こういった、子育て分野にITを導入するムーブメントは”BabyTech”とも呼ばれていて、個人的にも非常に関心が高い分野です。
最近自分が知ったなかで面白かったものは、Openposeで”うつ伏せ寝”の検知を行ったり、睡眠アプリで睡眠時間を記録して”ネントレ”(赤ちゃんの睡眠時間をある程度コントロールする)を行うなどかなり面白いし便利そうです。データドリブンに育児をしたり、機械学習に一部代用させたりする流れはきっともっと大きくなると思います。
⑬ ものすごいメンツの企業が過去最大のデータ共有の取り組みを始めたけどうまくいく未来が全然見えない…
コンビニ同士の闘いからは完全に抜きん出てしまったセブン&アイグループが、さらに未来的な取り組みを他業界と始めたそうです。
セブン&アイ・ホールディングスは、データ活用のための取り組みとして、6月1日に「セブン&アイ・データラボ」を開始した。 同ラボは、幅広い業界の参加企業がそれぞれ保有する豊富な統計データの相互活用から新たな知見を得ることで、課題解決を目指す。 参加企業はANAホールディングス株式会社、株式会社NTTドコモ、株式会社ディー・エヌ・エー、東京急行電鉄株式会社、東京電力エナジーパートナー株式会社、株式会社三井住友フィナンシャルグループ、三井物産株式会社の10社 企業間におけるビッグデータの連携としては、過去最大級の取り組みとなります。
メンツがすごすぎる。一体なんだこれは… そして、これからの時代はアルゴリズムでは差がつかないから、各企業がどれだけオリジナルなデータを大量に持てるかどうかが戦い、といっているときに、「企業間でデータ共有しようね」という取り組みがうまくいく未来が微塵も見えないのですがどうなんでしょう…。わりと普通に謎プロジェクトだ…。 詳しい情報は現在まだ出ていないようなので続報を待ちましょう。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第8号】(2018.5.21~5.27)
① 五万回くらい頷いたし、全ページニヤニヤが止まらないので分析官は電車閲覧注意なスライド
分析案件あるあるなパターンをまとめたスライド。完全なアリよりのアリでマジ卍すぎて苦笑がとまらない。
@chezouさんによるkawasaki.rbでの発表資料。 機械学習工学研究会で話足りなかったことを話されたスライドのようです。機械学習工学会のスライドとの砕け方の落差が好き。
個人的に一番笑ったのは、
「我が社はデータが山のようにあって」 「はいはい、MySQLに1億レコードね」
② いろんなGAN
GAN + Ethereum + Anime = https://t.co/QyUgvThvHb pic.twitter.com/HUsIilntml
— hardmaru (@hardmaru) 2018年5月22日
jirou interpolation video
— Prosthetic Knowledge (@prostheticknowl) 2018年5月21日
Example video from Kenji Doi (@knjcode)features visual transitions of Japanese cuisine, generated using the same neural network framework that generated new celebrity faceshttps://t.co/fRomJhwSlN pic.twitter.com/ypbYmlqecC
ラーメン二郎生成といえば@knjcodeですね。もはやラーメン屋。
それにしてもGAN生成の連続画のゾワゾワする感じはなんなんでしょうか…悪夢っぽい。
どうでもいんですが、twitterの縦に流れるUIって、こういったショート動画載せるには一覧性やお手軽さ的に最強のメディアだと思うのです。ユニークなGAN動画があつまるハッシュタグとかあればちょっとしたアート作品になりそう。
③ 画像認識を使った麻雀支援アプリが良さそう
東北大学の学生5名チームが、学生向けハッカソン「JPHACKS2017」で麻雀支援アプリを作成し、審査員特別賞の他4つの企業賞を同時受賞した話。麻雀牌の画像認識には機械学習が使われているっぽい。
完成度は高そうですが、現在は一般にリリースされているわけではないようです。めちゃくちゃ大きなニーズとまではいかなくても確実なニーズはありそう。
牌の画像認識をどうやっているのか技術詳細は不明ですが、SSDで牌の検知を試みたこちらの記事によると、牌中に繰り返し現れる構造などもあり、単純には難しい模様。また、牌のデザインは製品によって微妙に異なると思われるので、そのへんをどこまでカバーできているのかも気になるところです。
④(悲報)新たに「共感モデル」が搭載されたりんな氏、既読スルーを覚える
りんなに新しいモデルが搭載され、「新しい話題を切り出す」「質問する」「相手の発言を肯定する」「相づちを打つ」が出来るようになったらしい。マジかよだいたいのコミュ障を越えたじゃん!!!
「共感モデルは、できるだけ相手と長く会話を続けるのが目的である。会話の目的を意識して、戦略的に自分の返答を生成することを目指すことになる。これまでは、一度学習したものをベースに、脊髄反射のような反応していたが、過去のセッションの状況と、いまやってきた変動内容を加味して返事をするようにしている」
そんな難しいことが現状の自然言語処理技術でできるのか…ということで、実際に自分でもりんなと会話していろいろ試してみたところ、それほど前とは変わらないようにも感じる。。。
第6号にもあったGoogleのDuplexは、「予約に関する電話会話」に特化させて学習することであそこまで自然な応答を可能にしていますが、りんなのように「自然会話」を成立させるのは段違いに難しいですね…。そもそも我々が何を持って雑談を「自然」だと思っているのか、定義も難しいですし。
なお、共感獲得の末、嘘か真か既読スルーも覚えた模様。機械にも無視される人類。
りんなが文脈が読めるようになったってニュース見て、試しに会話してたら既読無視されました…!りんなたん…!! pic.twitter.com/Ewmwt9Mxro
— 池澤あやか / いけあや (@ikeay) 2018年5月23日
⑤ 今週のドジっ子Alexaちゃん話
Alexaのオチャメ(?)な誤処理話について。 2つの記事はそれぞれ、
- 「アレクサ」という音を自分に向けたコマンドと誤認して処理をスタート -> 処理待ち状態のところに、意図していないアクションを指示したかのように処理されてしまった。
- オウムが話した言葉を人間からの指示として処理した という原因のようです。
1についてのアマゾン側見解は、
「Alexa」のように聞こえる音声で起動したEchoがその後の会話の中で「メッセージを送信」と命令されたと受け取ってしまい、その段階でAlexaは「誰に?」と尋ねたが、続いている会話の中からユーザーの連絡先リストにある人の名前を聞いてしまったと説明した。
「そんなことある?」って感じだし、2に関しては絶対オウムネタやる人出るやん…と思ってましたが、とにかく、スピーカーへの音声コマンドトリガーがまだまだ技術的にも運用的にも発展途上のために起こったようです。
明示的にコマンドのスタートワード(「ねえぐーぐる」や「あれくさ」)を教えてあげること自体がそもそも面倒であるものの、でもそれをしないと技術的には音声コマンドを受け取ることが難しい。それぞれを解決するには、
1 -> 会話の文脈を理解しないといけない。自分に向けた発話なのか、自分以外の人への発話なのか。 2 -> 命令を発しうる人(家族とか)の音声別識別ができないといけない。登録者以外の命令は受け付けない。
Alexaの目となるもの(室内画像のデータもインプットに追加するなど)があれば話はまた違うのでしょうが、音声だけでもそれぞれの技術的な課題の解決は時間の問題という気もするのでAlexaちゃんが賢くなる日を待ちましょう。(きっとすぐ追いついてくれるハズ)
⑥「Data engineers」「data scientists」、そして「MachineLearning Engineers」の棲み分け
『「データサイエンティスト」と「データエンジニア」は仕事の領分も必要スキルも違うのでちゃんと分けて考えような』ってお話。海外記事の和訳記事。
「データサイエンティスト」と「データエンジニア」の区別はまだまだ道半ばな感じですが、でも実際どう違うの?ってことをいい感じに言語化してくれている記事です。良い記事なんですが、なんでタイトルが「vs.」ってなってるのかは謎。二項対立戦争はダメってエディター戦争のときに約束したでしょ!!!
データ分析とシステム構築はもちろん分けてやったほうが良いのですが、データ分析官ももはやシステム構築や処理に関する知識がないと分析用のデータを取り出すことすらできない場合もあるというのもまた事実。 自分の周りの分析官にも「最近なに勉強してますか」と聞くと「システム構築周りのこと」と答える人も少なくない感じです。そして勉強熱心な分析官は実際にシステム構築周りのことにも興味があるので、結局は「デキる分析官」がシステム構築にも携わっているなんてこともアルアルかもです。
⑦ またメルカリデータ分析チームの記事…悔しいけど欠かさず読んでる…
アナリティクスサミット2018で登壇されたメルカリの分析部のトークについてのまとめ記事。
メルカリの分析部は、この数ヶ月だけでもかなり積極的に情報公開・発信されていて、サービス規模に対して7人という少人数チームながら事業会社の分析チームとしてはすでに確固たるポジションを築いている気がします。 会社のデータを見る仕事なのでなかなか外部に向けて発信しにくいはずですが、「分析哲学」や「採用基準」などの話も混ぜ込んだり、さまざまなことがロジカルに整理され言語化されているので「ためになるなー」感がすごいです。
なんだかかっこよくて悔しいのであまりメルカリ関係の記事読みたくないのですが、TLに流れてくるたびに我慢できずに踏み、「ぐぬぬ」と思いながら読み、「良い記事だった…」と閉じることを繰り返しています。悔しい…!
メルカリ関係の直近の記事は、第1号,2号,3号,7号にもありますのでメルカリファンの方はどうぞ。
さらに余談ですが、メルカリさんはpodcastもやっていて、分析マネージャー樫田さんが話されている回(※2017年2月公開なのでちょっと古い)もあります。
⑧「あなたにとっての報酬はなにか?」がいつか機械学習でバレる時代がくる…?
これは面白いやつ。
逆強化学習によって線虫(C. elegans)における行動時系列データから、線虫の「報酬」が何かを推定したという京大の研究結果について。推定された報酬を用いて線虫行動をコンピュータでシミュレーションした結果でもモデルの妥当性が確認されたそうです。
強化学習と逆強化学習の違いは、
強化学習は、どの状況でどれくらい報酬を得られるのかはあらかじめ決められており、試行錯誤によって得られる報酬を最適化する行動戦略を見つけ出すことが目的とするもの。一方の逆強化学習では、動物はすでに最適な行動戦略を獲得しているとして、計測された行動時系列データから未知の報酬を推定することが目的になる。
研究の目的は、
線虫がどのような戦略にしたがって行動しているのかはこれまで謎だった。そこで同グループは、線虫を温度勾配においてトラッキングすることで、行動時系列データを取得し、逆強化学習法により、線虫にとって何が報酬となっているのかを推定した。
結果的には、良い感じに計算モデルによって線虫の行動戦略がバレてしまったようなんですが、さて、人間はどうなんでしょう…
我々は自由意志と理性によってさまざまな選択を行い、それぞれに個性を発揮して自由に生きているはずですが、いつかAI的なものが我々の膨大で詳細な行動ログなどを解析できる時代がくれば、実は全員が少数の特定の「報酬」を目指して生きていることが判明したら…。SF映画化待ったなし。
⑨ 虫でpose estimation
CNNによるfast animal(動きが早い動物)のpose estimation。論文ではハエとマウスでの結果例が紹介されている。
Tracking fly body kinematics w/ deep CNNs. Lovely work by @talmop, @shaevitz, & friends. https://t.co/iMDhpRcJCz pic.twitter.com/TF46N2Uw5Y
— John Tuthill (@casa_tuthill) 2018年5月25日
まだ中身は読めていないけど、線虫の話を読んでいたときにTLに流れてきたのでアイキャッチ負け(ジャケ買い的な意味)してリンクを踏んでしまったやつ。推定動画がなんかかわいい。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第7号】(2018.5.14~5.20)
① AI開発を受託会社に発注する際の心構え、「”AIガチャ”の回し方」がウケるw(が、ワロエナイ)
今週最も笑った記事。AI業界にいる人はニヤニヤすることでしょう。
140文字で伝えきれない想いを、noteに綴りました。
— マスクド・アナライズ (@maskedanl) 2018年5月15日
会社でAIの導入検討したり、開発を依頼する方は必読です!
ちょっと長い(4000文字)なので、後で読むのもよろしいかと。
注:悪意と偏見のフィクションなので、真剣に読んで怒らないこと。https://t.co/SfHeBs48IN
世の中の「AI受託開発会社」の技術ステータスや、実際に発注すると何が起こるのかの「あるある」話を面白おかしくまとめてくれてます。ただし、面白おかしいのは筆者による文才であって、内容自体は笑えないかも…
紹介されているのは、大手SIer/外資系企業/有名なAI開発会社/独立系SIer/フリーランス/クラウドソーシング/自称AIベンチャー の7種。内容は…まぁたしかに一般的に聞く評判だとーと感じました。世はまさにAI開発戦国時代。
最後のまとめ部分の1文は紛れもない真実ですので、AI開発を他者に発注する人は心に留めておきましょう。
少なくとも「ここに頼めば大丈夫」と保証できる会社(ガチャ)はありません。そもそもAI開発自体が成功を保証できないので、一定の損失は覚悟しましょう。
② 機械学習工学研究会のkickoffが超人気でスゴイ(語彙力)
上の話から微妙に続くのですが、 AI開発(機械学習で動く何か)がなぜ難しいかというと、AIシステム(と呼ばれている何か)は内部で状況(インプットされるデータ)ごとに異なる計算/答えを返す機械学習を行うので、従来のソフトウェア工学のアプローチによるシステム構築とは違う難しさがあるからです。それに立ち向かう研究会のkickoffが今週行われました。難しそうな研究会なのに500人規模の超満員だったようです。
登壇者の方のスライドも公開されています
機械学習システムの難しさについては、久保さんや有賀さんのスライドが詳しいです。
ツイッターのハッシュタグでもこの分野のツラミを分かち合う話題などいろいろと盛り上がりをみせ…
#mlse_kickoff 「データ解析請け負って成功したが、実は発注側に実用化の予定が無かった(実はただの実力テストだった)。」これは笑う。
— 田口善弘 (@Yh_Taguchi) 2018年5月17日
初回ということもあり、イマイチどういった会なのかがわからないまま参加された方も多かったようです。 当日1番多かった質問は、「資料が配布されるかどうか」だったという風の噂も聞きました… これから賑わいを見せそうな集まりで期待です。
③『素晴らしい瞬間』を自動的に撮影するGoogleのカメラは膨大な人力作業で作られていた…
個人的にめちゃくちゃ関心の高いカメラの話です。 ”Google Clips”は胸元に付けられるほど小さなカメラで、「良い感じの瞬間」を自動で認識しショート動画を撮影してくれるカメラ。USでは$249で発売されている模様。 機械的に「良い感じの瞬間」をどうやって判断しているのかがもちろん気になるところですが、その技術詳細についてGoogle AI blogが出ていました。
箇条書きでざっくりと中身を書くと、
clipsの3つの重要な原則
- 処理は全てエッジ(カメラ)で行っている
- 魅力的な瞬間にビデオを撮影する(静止画は撮っていない)
- 撮影対象は人物や動物であり、風景や景色などは対象となっていない
「素晴らしい瞬間」の認識のためのデータセット作成
- 1,000本以上の動画からランダムにショート動画を作成し、ランダムにペアを作る。
- 「2つのショート動画のうち、どちらが好み?」という評価をプロの写真家やビデオ編集者につけてもらう。
- 5千万組(!)のペア比較を実施し、動画にスコアを付与。
学習
- 動画に映る物体や動作の検知を行い、評価者が付けたスコアと相関が高い物体ラベルを絞り込む
- 笑顔/ペット/ハグ/キス/ジャンプ/ダンス など一般的に好まれそうなラベルにはスコアに重みを付ける
- スコアと物体の関係性を深層学習を使い計算能力の高いサーバーで学習
- 実際の推論はエッジで行うため、MobileNet Image Content Model(ICM)という小さなモデルで上記のモデルの推論結果を模倣するモデルを作成。関連性の低いコンテンツを無視しながら、写真の最も興味深い要素を認識するようにする。
- こうして、動画を見せるとそのスコアを推定するモデルを作成
- 動画に映る物体や動作の検知を行い、評価者が付けたスコアと相関が高い物体ラベルを絞り込む
その他いろいろ
技術的な設計などはもちろんですが、ヤバイのは5千万の動画ペアに評価ラベルを付けたという件… googleパワーはこういった泥臭い作業も(金と外注の力を使っていても)完遂することろかと。
④ 人類と深層学習の戦争はすでに始まっている、最初の犠牲者はジロリアンか?
以前一度やりましたが、約6万枚のラーメン二郎画像でProgressive Growing of GANs に再挑戦。今回はかなり本物っぽい感じになりました。
— Kenji Doi (@knjcode) 2018年5月18日
適当に4枚ピックアップしましたが、一枚目から順に、松戸駅前店、湘南藤沢店、池袋東口店っぽくて、最後はどこかわからんが肉の質感がリアル! #ラーメン二郎 #GAN pic.twitter.com/aHBzNA4wFu
GANでラーメン二郎生成… 凄すぎないかコレ… でもジロリアンならGANよりも優秀なdiscriminatorとして見抜けるんだよね…?
⑤ 「データはユーザの声なき声」
今週は「Data Analyst Leaders Talk!」というイベントがあったようです(申込んだけど落ちた勢)
DeNA、グリー、メルカリ、楽天の4社それぞれの分析チームのマネージャ・執行役員が、自社のデータ分析の活用と組織について、パネルトーク形式で切り込んでお話をします。
みたらわかる、これ絶対おもろいやつやん。
案の定、ツイッタを見ていると非常に好評だったそうで、さっそく幾つかブログも上がってました。中でも「データはユーザの声なき声」というのはまさにそうだなーと。分析でそういったインサイトを見つけられると超かっこいいですね。
余談ですが、ユーザーのインサイトといえば、誰でも無料でもらえる「離婚届」の用紙がメルカリでジャンジャン売れているらしいという話が最近面白いなーと思いまして、つまり、ユーザーの
「役所でご近所さんに見られるのマズイけど、手元に持っておきたいので600円くらいなら買うわ需要」
にハマったということらしいです。まさに声なき声。 メルカリで謎のアイテムが売れてるときは、ユーザー達の面白いインサイトが見つかる瞬間でもあるのでなんだか分析が楽しそうです。
⑥ 実は人間はもっと多くのものを「視ている」らしい。しかも無意識に。
東北大学電気通信研究所の研究結果で、人間は自分の周囲360度の環境を学習し、脳内でモデルとして構築することで、直接見ることのできない頭の後ろ側の情報も無意識に処理していることがかわったという研究。
実施された実験は、被験者の周りを360度囲うように6枚のディスプレイを設置し、その6つのディスプレイ上に1つの標的(「T」)および35の引っ掛けの標的(「L」)が提示され、被験者は「T」だけを探し、発見までの時間を記録するというもの。
文字の配置が毎回新しいものに変わる「ランダム配置」と、12の配置パターンを繰り返す「繰り返し配置」を何百回も行い比較した結果、「繰り返し配置」の場合は「ランダム配置」と比較し、有意に発見時間が短かく、しかもそれが例え視覚の外にある背面のディスプレイにTが出現した場合でも当てることができ、発見時間も統計的有意に短かったそうです。(被験者は表示パターンが繰り返しかランダムかは知らされていない) これは、正面にあるものから、背後にあるターゲット位置を推測することができる能力といえ、しかもこのことに被験者は全く気付いていないことから、潜在学習によって周囲の環境を理解しているといえるらしい。
つまり、人間の視覚的知覚には視覚的入力以上のものがあり、身体や文脈情報の影響が示されていると論文には報告されています。人間はただ見えているものを認識したり学習しているだけではなく、自分の意識外でもパターン学習が行われているらしい、とのこと。
見えていないところも予想できる、というそんな超能力者みたいなことを無意識にしてるってこと?とも思うが、実際には、例えばサッカー選手などはフィールド全体のどこに味方や敵のプレーヤーがいるかということを把握しつつ、走ってボールを追ったりしていますが、常時360度を見ているわけではなく、見えていない背面で敵や味方がどう動いているかを(意識的にか無意識にか)想定しているはずです。意外に生活の中でも多用している人間のスキルなのかもしれません。 ちなみに、脳科学者的な興味は、人間が意識外で獲得したこういった情報は脳のどこに保存されてるのかということらしいです。
「人間は視覚から意識外の情報を取得している」という話は、このブログの第2号でも紹介した「人は相手の顔の血色の変化だけで感情を読み取れる」という話と同じような話なのかなと思い、かなり興味深いです。人間の認知はきっともっと広いんでしょうね。ワクワク。
⑦ 「未分類のゴミ」を貯める前にデータ分析官を雇おう(←それな!!!)
明確なルールや基準もなく無差別にデータを集めても「未分類のゴミの山」ができるだけで、きちんと目的と設計を立てられるデータサイエンティストが居て初めて、データを集める前から「可燃」「不燃」「資源」のようにゴミの中から使えそうなデータをより分けることができ、使いものになるものも見つけられるかもね、というお話。
アルゴリズムを考えたり分析することと同じように、「そもそもどういったデータをどういう形式でどれくらい集めるか」という判断は、分析官の中でもわりと経験がないと難しい。それなのに分析官不在の状況で、「とりあえずデータは貯めとこう」とすると返って、データ取得の手戻りを増やしたり無駄な前処理をする必要に迫られたりして良くない。データ活用をしたいなら、データ集めをする”前”に分析官を集めましょう(相談しましょう)という話。
⑧ 商品倉庫のピックアップロボットはAmazonだけじゃないぞ
Amazonの出荷倉庫でロボットが商品をピックアップしている話は有名ですが、イギリスの大手オンライン小売業者「Ocado」でも可愛いロボットが働いているんだぜ、という話。個人的にはAmazonロボットよりもデザインがかわいくて好き。
25万個のマス中に商品が配置されており、数千台のロボットが秒速4mのスピードでマス上を動き回る。1秒間に300万回もの計算を行って最適かつ衝突の起こらない稼働を実現しているそうです。ロボット1台が運べる重量は10kg。充電が切れそうになると勝手にスタンドに入ってきて充電してまた仕事に戻る(かわいい)
こういう自動化はもっともっと進化してほしいですね。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第6号】(2018.5.7~5.13)
①Googleの電話予約AIシステムDuplex、ついに本物のAIみたいなものがでてきよった…
今週の一番の話題と言えばこれでしょう。Google I/O 2018のイベントで発表された「Goole Duplex」。Googleが数年かけて開発したという、「電話でのお店予約」という非常に限定したシチュエーションでのみ、ほとんど人間のように自然にやり取りをして予約を取り付けるAIシステムの話。
これまでごまんと、「AIで~~~できるようになった」みたいな話を聞いて、「それ、AIじゃなくて機械学習な」「AIじゃなくてただの深層学習な」ってツッコミを入れ続けていたけど、初めて「……なんやこれ…AIじゃん…」って思ってしまったやつ。
美容院とレストランに電話予約をしているデモが公開されたのだが、まだ聞いてない人はとにかくリンク先の音声を聞いて欲しい、凄すぎて笑ってしまうから。
合成音声には最近おなじみのWaveNetを利用しており、そのクオリティーは電話口の相手が機械だと事前に知らされていなければ気づくことができないレベル(というか、機械だと教えてもらってもそれでも信じられないレベル)。
「あー」とか「えーと」というような繋ぎの言葉を意図的に挟み込んだり、相手からの質問に即答せずに敢えて時間を置いたりする「人間らしさの演出」まで入れている。もしも対応できなくなるとシステム側が自動で判断して人間とバトンタッチする機能もあり。また、あまりにも人間と区別がつかないので、電話開始時にこれはAIが発話していますよと事前に告知する透明性確保も検討されているらしい。
公開されたデモで特にやばいのは2つめの音声。男性声のAIがレストラン側の女性店員に電話する例。
おそらく女性は英語ネイティブではないうえ、文法もやや適当な感じ。それにもかかわらず自然な受け答えをしている。
特に驚いたのは、AI側が5名の予約をお願いする発言に対して、女性店員が「4名以上は予約できないけど、来たら座れると思うよ」と少しトリッキーな返答をしたのに対して、「じゃあどれくらい待ちそう?」とAIが自然な返答をするところ。マジか。
特定タスクの音声限定で、おそらく最もうまく会話できた例をデモとして公開しているだろうとはいえ、このナチュラルさはヤバイ。これの”AIオレオレ詐欺システム”みたいなのが作られちゃったら日本は間違いなく滅ぶ。
I/OイベントではDuplexとは別に、メールの予想入力補助機能のもっとスゴイやつ、みたいなものも公開されたが、ここまでくると人間のコミュニケーションとはなんぞや、という気分になってくるのは自分だけだろうか。
Duplexにしても、電話口の人間が機械に手加減してもらってるみたいでかわいそうに感じてくるし、もういっそグーグルはお店側にも「予約を受け付ける音声AI」を無料でバラ撒いて、それをお店が使うことで機械同士でよしなに通信してくれるのが最善の世界なんだろうな。ヒトがAIの活動を邪魔している、という気さえしてくる…
ここでは「電話でのお店予約」という限定したタスクをうまく解くシステムの紹介だが、囲碁ゲームに特化したAlphaGOがすぐに汎化されて将棋やチェスに展開されたように、おそらく類似の会話タスクは瞬く間に解かれるのだろう。
②Uber自動運転車死亡事故の続報。適合率/再現率のシビアな問題が明るみに。
Uber自動運転車事故の続報記事で、自動運転システムは被害者が道を横断するのを検知していたが誤検知(false positive)とアルゴリズム側で判断し回避しなかったということが調査でわかったという話。
分類アルゴリズムの精度評価で、適合率と再現率(誤検知と見逃し)のどちらを取るかという話は必ず検討項目としてあがるのですが、特に自動運転や医療領域のような人の命に関わる領域の設計は非常に難しい。
Uberの件ではシステム判断問題として課題が残るものの、そもそもこういった死亡事故が起こった場合、責任は誰がとるのか、アルゴリズム設計者に瑕疵担保責任を問われたりしないかなど今後の法整備も気になるところです。
③サッカーよくわからんマンにもこれならなんとなくわかるぞ!サッカー試合状況の可視化
Next part of my tracking data visualisation playground with @drob's package #gganimate. Full code available here: https://t.co/tC1zGtdeUC pic.twitter.com/67eff3ty3y
— Kuba Michalczyk 🔎 (@KubaMichalczyk) 2018年5月4日
位置情報を追跡し、一番外側にいるメンバーを線で繋いでそれぞれのチームの領域を表示しているだけなのだが、見ていて非常に興味深いです。なんとなく両チームの領域が、守る場合は広く重なるように、攻める場合は相手のカバー領域外にメンバーを配置できると良さそうですが、プレー中の選手たちの脳内も実はこんな領域把握が行われているのでしょうか。ビジュアライゼーションとしては簡単なのに面白いなーと。
④画像認識技術をゲーム化させるセンスに嫉妬
画像認識能力を使った「絵文字版借り物競争」的なゲームをgoogleがリリース。TensorFlow.jsで動いているのでブラウザで起動する。URLにスマホからアクセスするだけでゲームをプレイできる。 https://emojiscavengerhunt.withgoogle.com/
画像認識性能が向上し、しかも技術者であれば比較的簡単に利用できるようになったことからも、「この機能で何か面白い画像系アプリとか作れないかな」と挑戦した技術者は山のようにいるだろう。 それでも、一般的な物体は検出できても、”植物の種類”のようなあまりにマニアックなものまでは識別できないこともあり、「何かできそうで、できない」という結論に達して開発を諦めた人もまた大勢いたはず。 そこをアイデアとUIUXの技術で子どもでも遊べてハマりそうなゲームを作ったところがさすが。
ちなみにこのゲームのUIUXには、シリコンバレーで活躍する日本人デザイナーの川島高さん(@kawashima_san)も参画されている。 http://www.takashikawashima.com/portfolio/
2018/4/23のTakramのpodcast「海外でデザインを仕事にする(後編)」でもお話されているので興味がある人は聞いてみると楽しいかも。
⑤PoseNetがブラウザーで駆動するところまでやってきたぞーーー!
OpenPoseから始まった骨格推定の感動もついにコードゼロで動くまでやってきた。こちらも同じくTensorFlow.jsで動いている。
PCでこちらのURLを開いて、インカメラ使用を許可すると骨格推定が始まる。ヌルヌル動いててヤバイ。あまりにも簡単に、あまりにも正確に追跡されて笑ってしまう。「すべての人がAIを使えるように」というgoogleの思想を改めて実感した瞬間。
⑥葬式まであげたのに地獄から帰ってきやがったKinect
Kinectの生産終了が決定し、一部ではお葬式まであげられて別れを惜しまれたKinectが、しれっと第4世代として帰ってきた。我々の別れの言葉を返せと言いたい。
今度はAzureのもろもろと繋がり、センシングしたデータをより活用できそうな雰囲気が漂っている。スペックは以下。
1024 x 1024 解像度のToF式奥行きセンサ、4K RGBカメラ、日光下での性能を向上させるグローバルシャッター、360度マイクアレイなどを備え、さまざまな用途に使いやすい小型と低消費電力が特徴です。
小型化したKinectモジュールをDJIのドローンなどにも搭載するなどエッジコンピューターの領域でも頑張っていくらしい。 それにしても最近のMSの他社とのコラボレーションはイケてる感じがする。MSの好感度が上がっていく…
ところで、Google I/Oでは2次元画像からのPoseNetでの(つまりソフトウェア的な)骨格推定が話題となり、MSはハードウェアを使っての物理センシング(人間の骨格推定以外のこともきっとできるだろうが。)という戦略なので面白い。今後の両方向の動向に注目したい。
それにしても復活嬉しい。おかえりKinectちゃん。
⑦カメラ画像の明暗修正にも機械学習
同じ場面を露出時間を変えて撮影して教師データを作り、暗い画像を明るくするNNを学習する(前処理なし)。ISOが低いカメラでも暗闇で取ることができ、また露出時間を短くできるので動画などに適用できる。https://t.co/nlnpHQNf8F https://t.co/iTnUO1IBQw
— Daisuke Okanohara (@hillbig) 2018年5月9日
学習と教師データもお手軽に作れるし、シンプルなアイデアだけになるほどーと関心した。また1つ、ハードウェア側の補正を(完全ではないが)ソフトウェア側で補えるようになった。カメラもまだまだ進化する。
⑧ありそうで無かったデータサイエンティスト採用方法が強い
・2018年度新卒入社者を対象(入社して1ヶ月ちょい)
— マスクド・アナライズ (@maskedanl) 2018年5月8日
・待遇は「年収648万円〜」と「ストックオプション」
機械学習エンジニアの需要がどれだけ高いかが、如実にわかりますね。https://t.co/tuwyL2yevU
“イキリデータサイエンティスト”という言葉があるように(特にツイッターでよく見られる)、世の中のデータサイエンティストはなぜだか個性が強い人(オブラートに包んだ。)が多い印象で、入社したものの全く会社に合わないという人は少なからずいろんなところにいると思われるのです。 そこで!会社とマッチしなかったデータサイエンティストを対象に積極的に採用しますよという強気の採用広告。同時に世の中のデータサイエンティストニーズの高さも感じられます。
それにしても入社一ヶ月後というのはつまりまだ新卒研修とかしている会社がほとんどなわけで、そこで「この会社とは合わん!」と社員に思われてしまうほどダメな研修をしていると見限られてしまうということなのですね…会社側も研修も新卒だと思って適当にやってるとダメということね。。。
⑨AIがやってるのは「理論」的推論ではなく「直感」的推論?
Ponanza開発者の方のまとめツイート。 まとめツイートだけ読んでも「何のこっちゃ」と思っていたのだが、以下の方のツイートで何の話をしているのかわかった気が する。
直感は閃きと言うように一瞬の思考のように見えるが、実は数年レベル、物によってはDNAレベルの大量の経験値データから答えに辿り着く泥臭い手法で、論理とは長考してるように見えて少量の経験値から答えに辿り着く瞬間の手法である。AI界隈はこういうコペルニクス的転回があるから楽しい。 https://t.co/lLD34uJkQp
— 高木久之 Hisayuki Takagi (@wildcard_takagi) 2018年5月11日
「理論」と「直感」は対極にあるものではなくて、使うデータの量が違うだけの同じ線上にある手法、という考え方はおもしろい。そう考えると機械学習がやってるのは「直感」だという言い方もわかる気がしますね。
⑩最近、ブレインマシンインターフェースの話題が気になる…
最近自分の周りで何故かポツポツとブレインマシンインターフェース(BMI)の話題が増えていて、おすすめされた記事。 機械学習を用いた脳内認識活動の可視化など、最近話題になったネタの紹介や、脳の情報をインプット/アウトプットする方法などが簡単にまとめられている良記事です。
BMIの最終的に行き着く先が、各個人の脳を共有する地球規模のコネクトームだという、わりと良く聞く意外性のないオチなのでアレですが、近い将来我々の生活に入ってくる実用的なBMIなどんなものだろうかと夢が膨らむ。BMIなんてもっと未来の話だろうと思っていたのに、ソフトとハードの進化が最近異常に早いので意外に近くまできているのかもしれません…
余談ですが、文章中にイーロン・マスクとBMIへの言及があるのですが、イーロン・マスクは「我々はシミュレーションの中で生きている」というシミュレーション仮説の支持者らしいです。ちょっと本題から外れるかもですがシミュレーション仮説についてわかりやすく説明されているこちらの記事もおすすめ。
⑪物理学業界からのKaggleへの殴り込み。物理出身クラスターのデータサイエンティストはやっぱり燃えるの?
珍しい(?)物理と機械学習の話。世界最大規模の素粒子物理学の研究所であるCERNが、加速器実験から得られるデータをkaggleに提供しコンペを開いている。賞金はやや少ないものの、実際の加速器のデータを扱えるので物理クラスター勢にはアツい話題なのかもしれない。
体系的な教育が行われないまま必要性によって盛り上がったデータサイエンス領域は、多くの人材を物理学専攻の学生から得ている雰囲気がある。物理学を学んでいた学生は、理論的な考え方はもちろん、プログラミング、統計学、数学とデータサイエンスに必要なスキルセットと被りが多かったため、実際に現在活躍しているデータサイエンティストも物理畑出身の方が多い。CERNが出しているデータということもあって、意外に挑戦するデータサイエンティストは多いのかもしれない。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第5号】(2018.4.30~5.6)
ゾゾスーツ続報。3Dデータ表示がめっちゃかっこいいんだが!
さっそくゾゾスーツの使用感レビューブログが出てました。アツいサービスはブロガーが放っとかないのです。
センサーでピッと計測する前バージョンよりも、さすがに計測方法がめんどくさそうです(画像撮影時の注意事項がかなり多そう)。でもそもそも頻繁に撮影するものでもないのでok。 計測結果の3Dデータもめちゃくちゃかっこいいし、測定精度もミリ単位で表示されるようです。計測後はゾゾタウンアプリにデータがリンクされ、商品のサイズ選択時に「あなたのサイズはこれ!」と明示的に教えてくれるそう。もうこれ最高じゃないですか…。絶対自分サイズのシャツ買う。 マーカーを読み取る技術者も既にでてきたぞ。
AI活用で新たな政治スタイル目指す“ポリテック”の始動
小泉進次郎氏が新たな言葉を作って政治に浸透させようとしている。politics × technology。
もう少し詳しい内容も話されているニコニコ超会議でのトーク全編動画はこちら。
具体的にどういうことをするかということまでは(おそらく時間の都合上)詳しくは言及していないが、まず言葉を作ることが大切だと話している。
銀行業界でFintechという言葉ができたことで、銀行はIT化なりブロックチェーンなり、テクノロジー利用を進めなければいけない(もしくはテクノロジーが必要だ)という認識が広く広まった。 Fintechとは何なのか実際にはよくわからないものであっても「Fintechに取り組み、発展させる姿勢がある」ことを示さなければ会社として世の中に置いていかれるという意識にまで到達したのは記憶に新しい。それを同じようなテクノロジーの意識改革を政治界でポリテックという言葉を使って起こすことがひとまずの目的のようです。 テクノロジーで日本を動かそうとする若手政治家の筆頭として、小泉進次郎氏の発言や行動に注目したい。
機械学習は人間が近代までに平均化や最大公約数を得るために振るい落としてきたものを取り戻す武器
「機械学習とか深層学習なんて小難しいもの使わなくても、正しくビジネス問題の設定ができればSQLだけでも売上は増やせるんや」という話。
ここに書かれていることは正しいのだけど、機械学習が目指してるのは「顧客の上位◯%」「最終購買から◯日」みたいなマス向けのルールベースによるクラスタリングではなく、顧客ごとにコンシェルジュをつけるように、本当の意味でその人だけのオーダーメイドな施策を打てるようにすること。平均化や最大公約数からの脱却を目指すのが機械学習の目標。なのでちょっと話が違う。
(ちなみにタイトルは落合陽一氏がそんなようなことをどこかで言っていたのでその引用)
「おじさんの鏡だ」「こんなおじさんになりたい」。”ディープラーニングおじさん”に勇気をもらった人たちが続出。
機械学習に詳しくない(というかLinuxもpythonも知らなかった)”おじさん”が半年ほどの独学で深層学習に習熟し、会社のAI事業の方針にも絡むまでになられたお話。「好きこそものの上手なれ、に年齢は関係ない」というのお手本のような話。
インターネットミームでは一般的には「〜〜おじさん」は「時代遅れの老害」を意味してディスる意味の使われ方をするため、それとは真逆の内容に感動した読者が続出。1000はてブ超え。年中ディスで溢れるはてな村に光が指した瞬間である。
正確な年齢知りませんが、多分50は超えてますw https://t.co/PBzeKgZRUw
— からあげ=タベタイナ (@karaage0703) 2018年5月3日
そしてディープラーニングおじさんが賞賛を集める一方で、エアポートおじさんとTOKIOおじさんたちがディスられるGW後半戦の始まり。おじさんたちの戦いはまだまだ続く…
FBがマッチングサービスを開始
個人情報の取扱についてケンブリッジアナリティカ事件の話題も覚めやらぬ中、さらにソーシャル性を強みにしたサービスを打ち出してくるFacebookぐぅ強い。
米国で結婚するカップルの3組に1組がインターネット上で出会っており、フェイスブックのユーザー2億人が独身と自己申告していることにも言及した。
3組に1組がネットで出会う、ってほんまかいなと。日本のマッチングサービスと何が違うんだ…(それともただのメンタリティー?)
そして類似マッチングサービスの株が軒並み暴落したという…
個人的には、わりと真剣に少子化対策のためにも日本は国策としてでもネットでの出会いを推奨すべきだと思っている。
「最大幸福の組み合わせ問題」としてデータサイエンスももっと貢献できるはず。日本では”出会い系アプリ”というネガティブな印象の言葉が残ってしまっていて難しい部分もあると思うが、Pairsやタップル誕生にもますます頑張って欲しい。
FacebookはすでにAIの倫理面について考え始めている
かつて画像識別問題において有名だった話だが、”女性の医師”の画像を見せると高確率で”看護師”だと誤判定するということがあった。
この原因は、世の中の医師は一般的に男性が多く、看護師には女性が多いというバイアスを、機械的には男性=医師, 女性=看護師と学習した結果。現実世界では性別・年代による格差や倫理問題は綺麗事抜きにたしかに存在するが、AIには正しくない倫理を学んでほしくない、少なくともFBが今後作るAIにはそういうことを求められている。
そのような課題に対し、FBはアルゴリズムが持つ潜在的な識別バイアスを測定するためのツール”Fairness Flow”を作ったよという話。
ケンブリッジアナリティカの件で、プライバシー情報にセンシティブに成らざるを得ないFBには今、こういった取り組みをアピールする必要性に駆られているのかもしれない。しかしそれは世の中にきっと役に立つことなので応援したい。
All We Need is arXiv
後から金儲けにやってきたNatureがボコボコにされていてクッソワロタ「この分野はオープン・アクセスの論文誌がうまく回っている ーー 何十年もの間誰もが避けようとしてきた有料アクセスモデルに今更かきまわされたくない」 https://t.co/lIv8BDpoxR
— TJO (@TJO_datasci) 2018年5月3日
Nature紙がなぜか今更有料の機械学習専門論文誌をやりますと言って、「ハゲタカビジネスだ」とボロクソに叩かれている話。
生物学の実験では、依然として専用の設備や機器、高価な試薬が必要な場面が多いので、追試などを誰もが行える環境でない限りは専門の機関(や研究者)が事前にレビューを行ったのちに世に出すプロセスは必要であり、意味がある。(そうしないと真偽不明の論文が大量に出回り逆に研究の足を引っ張ったりして困る)
しかし、機械学習分野においてはGoogleやFacebookが行うような何千台も計算機を並列で走らせるような内容でない限り、自由に動かせるGPUが数台あるだけで多くの人が世界中で各自追試を行うことができる。この環境の違いは「論文の公開プロセス」を全く違う形態にするほど大きな違いがある。
Natureが権威をチラつかせて論文誌を立ち上げたなら、それはかなり時代を読めていないということになる…
Ng教授のオンライン書籍教材
かの有名なNg先生がオンライン書籍を執筆中だそうで、そのドラフト版(1-22章)がオンラインで公開中だそうです。
なんかあっさり書きましたが、そもそも販売する書籍を事前に(ドラフト版といえど)公開するスタイルっていつから普通のことになったんですかね…
ドラフトを公開することで、ユーザーはいち早く最新のエキサイティングな内容に触れるし、著者は内容や誤字、感想のフィードバックを貰える。そして公式公開までアジャイルに直していく…。人々の意識もかなり代わりましたね...スゴイ時代になったものです…
上の論文紙の話題とも一部通じますが、機械学習関連の論文や技術解説文書はもはや現在の一般的な出版スタイル・意識・スピード感と大きな乖離があります。
技術はすぐに陳腐化する。これは慣用句ではなく、早いと3ヶ月〜半年でも十分に”昔”の話になってしまう。
書籍レベルのまとまった情報でなくても、noteでサクッと最新の話題を書いて、1月ほどの賞味期限内(実際に期限なんて無いが、気分的にはそんな感じ)に買ってもらうという意識が何となくあるし、最近話題のマッハ新書のような、もはやちんたら200ページを文書を読むことなく箇条書きで超サックリと要点だけ話すような文書スタイルもじわじわと流行り始めている。
技術者の副業意識も高まりつつある背景もあり、この流れはまだまだ大きくなりそうな気がする。 話が逸れたが、機械学習分野の進歩の速さは当該の技術分野だけに留まらず、出版業界にも影響を与えているという話がしたかった。
FBのコンピュータービジョン精度向上は、ユーザーの思い出でをより鮮明に記録してくれる
タイトルが全てを要約してくれている。ちなみに原文はこちら
画像認識はすでに驚くような精度で詳細なジャンルまで識別できるようになっているがこの進化はまだまだ止まらない。
これ以上精緻に、精度良く識別できる必要があるのかしらと個人的には思ったりするが、FBにおいてはユーザーが投稿する画像に映るものが「白いスーツを着た男」ではなく「ピエロ」だというところまで認識できることによって、ユーザーの思い出をより鮮やかに記録することができるようになる。それは素晴らしいことだと思う。
2012年にFBがinstagramを10億ドルで買収したときには流石にこういったデータの使い方をするとは想定してなかっただろう。FBは良い買い物をしたんだなー。
ちなみに、インスタグラム画像への教師情報にはタグ情報を用いているそうで、それはそれでタグのノイズ問題がある(画像に映ってもないのにノリで関係無いいろんなタグを多量にくっつける人いますよねー)。
その問題には、弱い教師あり学習(Weakly supervised learning)なるもので対応させているらしく気になる。
現状で2万カテゴリの分類が可能になり、将来的にはこれを10万まで増やす予定だそうです。
2万円台のスタンドアローン型VRヘッドセットが本物のVR布教起爆剤となるか
おそらく今週のIT業界で最もインパクトがデカかったニュースではないだろうか。
「このブログの趣旨と関係ないじゃん」と言われそうだが、オンラインコニュニケーションの主戦場が遅かれ早かれ確実にVR/AR空間に移っていくなかで、AI的な技術は必ずその中心にいることになるので関係なくない(たぶん)。
今回のOculus Goは値段を安価にするためにも、モーションに関するセンシングは制限しているらしい。
上下左右を見渡す・見上げる・見下ろすことはできますが、しゃがんで下から見たり、頭や体を動かして避けるような動きには対応しません。
それでもなお、「安価で、取り回しの容易な」デバイスが圧倒的な”正義”であることには変わりない。 GWにすでにガチャガチャと触っているアーリーアダプターなエンジニアたちはOculus Goで怠惰にNetflixを楽しんだりしている。くそぅ、羨ましい…
VRと深層学習といえば、ICLR2018のbest paperに選ばれた論文「Spherical CNNs」がある。球形画像にCNNかけるという内容。
理論が先か、データが先か。でも二律背反は良くないよという話。
経済学者は主には演繹法的な考え方、データサイエンティストは帰納法的な考えが中心にあるよね、という話。
演繹法と帰納法は、ざっくりいうと、物事を考える際に「理論(ルール)」が出発点になる考え方なのか、「現実(データ)」が出発点になる考え方なのかということ。
もちろん、演繹法を主とする経済学者が、考え方の違いによって二律背反的に帰納法を主とするデータサイエンティストをディスっているという話ではなく、経済学者は長い歴史の中で「統計も嘘をつく」事をよく知っているので、帰納法的なやり方に偏重した推論は危ないよ、データサイエンティストの人は気をつけてね、という感じ。
この手の話もわりと定期的に盛り上がっているような気がする。この話はちょうど次の記事の話にもリンクする。
Netflixは定性分析と定量分析をいい感じに行う。(でも「定量>定性」な気がする)
泣くデータサイエンティストも黙るNetflix様の分析事例紹介記事。誰もが知るコンテンツデータ分析の神様的企業である。
Netflixのデータ活用事例と言えば、レコメンデーションの精度がめちゃくちゃ良いという話が多く世に出ていますが、この記事ではレコメンド以外のデータに基づく施策判断事例・リテンション(ユーザーの契約継続率)を下げない/上げる施策が紹介されておりすごく興味深いです。(個人的には5つ星評価方法をやめた話が面白かった)
ただ単に、「圧倒的なデータ量を武器に定量的な分析を行ってリテンションを下げない/上げる施策を決めていますよ」という話ではなく、アンケートや個別のユーザーインタビューから収集する定性的な評価も大いに参考にしているという話もしています。あと、とんでも無い数のA/Bテストをやりまくっている感。
1つ上の記事の話も兼ねて考えるなら、演繹的な方法(Netflixの中の人達が正しいと考えている仮説やユーザーからのサービスに対する改善要望など)からの結果だけでなく、データからの帰納的な根拠も一致しないと本サービスとして実装しない、というような話。
ただし、記事を読んでいる感じでは、「ユーザーがYesと言っても、データがYesと言わなければやらない」「データがYesと言ってて、ユーザーもYesだったら納得感あるからやる」というような、どちらかといえば定性的な評価よりも定量的な評価に重きが置かれているようにも感じる。。。
「バランス良くいろいろな視点・手法で分析しようぜ、だってそれぞれのやり方には弱点があるのだから」、ということを以下の文章が説明してくれてます。
既存のデータを使った分析は今日起こっていることを理解するのにはいいですが、将来のことを理解することができません。クオリテイティブやアンケートの手法に関しては、カスタマーはインタビューやアンケートでは本当のことを言ってくれないということが分かっています。そして、A/Bテストに関しても、そもそもそうしたテストができないようなケースがたくさんあります。
と言いつつ、既存のデータを使って”将来ウケるコンテンツ”を作りまくっているNetflix先生でした。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。
WEEKLY人工無脳【第4号】(2018.4.23~4.29)
金属ガラス合成にも機械学習
金属ガラス合成がどれほど難しいものかはわからないが、内容的には、無数の組み合わせが存在する中から現実的な材料の組み合わせを見つけさせる、というものらしい。
おそらく創薬分野の課題と似たような「膨大な組み合わせの中から特定の結合パターンを見つける」みたいな問題だと思うが、パターン認識こそ機械学習の得意分野。このような問題はいろんな業界に転がっているはずなのでこの数年はそういった簡単な問題が解かれる事例がまだまだでてくるはず。
NECが機械学習の特徴量抽出設計自動化技術で子会社設立。しかし新CEOのTシャツが気になって内容が入ってこない。
かなり立派な会見っぽいのに、この服装で参加したNEC(新会社CEO)の方のメンタルの強さが気になって記事の内容が頭に入ってこない。
「特徴量の自動抽出」という半信半疑な話だけれど、最近人気と噂のDataRobotが提供しているものと同じ方向性のものだと思われれる。
ただ、NECはこれまでもこの技術に関するリリースを継続的に出している。
- NEC、ビッグデータの高精度な予測分析に必要な期間を従来比1/3に短縮する「特徴量自動設計技術」を開発(2015年8月18日)
- NEC、業務システムにおける大規模データ予測を自動化する「予測分析自動化技術」を開発(2016年12月15日)
NECは「異種混合学習技術」という手法によって、データサイエンティストが人手で行っていた高度な作業(データの関係性発見、特徴量の抽出・設計から分析モデル作成まで)を高精度に自動化する研究開発を2012年からずっと行っていたらしい。
NECの今回の技術やDataRobotのサービスが、この自動化分野の真打ちとなるかはわからないが、「特徴量の自動抽出」はいつかきっと達成される課題なので今後も注目したい。
ちなみにこの方が変なTシャツ着てるのは今回だけじゃないということもお伝えしておきます。
8K映像技術はきっと機械学習の良いパートナーになる
好評開催中の「人体展」でも8K動画の展示がされていて、「人間の目の解像度的にそんな必要?」って思ったけど、超精細な患部の状況を知りたい医療系画像や、最近医療分野でもバリバリ活躍している機械学習用の画像データとして貴重っぽい。2K画像と8K画像の比較が結構衝撃的なので是非リンク先記事を見て欲しい。
8Kによって「精細によく見える」ことの恩恵は、単純にズームしても画質が粗くならないということだけではなく、”厚そう・薄そう・硬そう・柔らかそう”といった”質感“までが画像から予想できるようになること。人間に予想できるということはもちろん機械的にも識別が可能になるというわけで、「カメラが良くなる」ことの恩恵は計り知れない。
こういった最先端の道具の完備・ネットワーク化を目指した「次世代手術室SCOT(Smart Cyber Operating Theater: 通称スマート治療室)」というものも開発が進んでいる。今後ここに医療用AIが組み込まれることは間違いないので期待しかない。
詳細な学習用画像が深層学習アルゴリズムを進化させる話は先週号の「コンクリートヒビを自動検知するシステム」にも書いたので興味があればぜひ見てください。
新型ゾゾスーツに「違う、そうじゃない」が殺到。しかし技術者たちはにわかに賞賛している模様
あたらしいZozoSuitに超しょんぼり… pic.twitter.com/VeGwLrWSnH
— まきの さとる (@autani) 2018年4月27日
ゴーリキーとのフライデーがすっぱ抜かれたもののナイスコメントで好感度をあげた前澤社長だが、新型ゾゾスーツは不評な模様。剛力にこのダサいスーツを着せられるのかと案の定イジられている。
IT企業がハードウェアを無料でバラ撒いてでも生体情報を取得しようとする姿勢は、データアナリスト達的にはかなり胸熱な展開だったと思う。これこそ真のデータドリブン企業。かく言う自分も、ゾゾスーツ発表直後にソッコーで申し込んだ勢の一人。
今回のネタについていくつか記事を追ってみると、
センサー計測式のゾゾスーツを無料で配布します(かっこいい!) → 製造委託先ではもろもろで製造できず(40億損失) → 画像でマーカーを読み取る形式に変更して自社開発 → 7月までには予約者に届けるね
という流れらしい。そして当初の未来感がすごかったかっこいいスーツから、水玉ドットの新型スーツが出てきたのでみんながっかり…という。
どっちがコケてもいいように新旧スーツは裏で同時に開発を進めていたらしく、ハードウェアを作ることの難しさを感じられる。ちなみに画像でマーカーを読み取る形式は3億で買い取ったアイデアらしい。
たしかにかっこよさが失われ多少がっかりはしたが、コスト面と必要機能を考えると、わざわざ伸縮センサーのような高価なハードを使わなくても、マーカー形式でも精度良く体型測定できそうである。こちらの動画の最後の方に複数人の測定画像がでてくるが、パッと見でもそれぞれの体型の違いがわかるのでやっぱり問題なさそう。
今後は自分のサイズにあった服をオーダーする流れがきっとくるので、ゾゾスーツの人気は間違いなく高まる。そうしたら安価に製造できる新型スーツが良いことは自明。 でもそんなことはみんなわかってるんだ…みんなは「ゾゾスーツ届いた!」といってインスタに写真撮るチャンスを多少なりとも失ったことにがっかりしてるだけだから気にしないでね前澤社長。ゴーリキーとお幸せに…
ちなみに、ダサいダサいと言われる新型スーツだが、ComputerVision勢とスーツフェチズム勢からじわじわと好評の声が上がりだしている。冗談抜きで、技術者のお遊びとしてこのスーツからとれるデータでわりとデカいムーブメントくるぞ。zooは決して失敗していない。
なあ、新型zozo suitめっちゃバカにしてたし批判してたけど撤回するわ。
— ふぁるこん VTuber (@makotofalcon) 2018年4月29日
世の中の女の子たちがzozo suit届いた!ってこういう風にTwitterにアップしてくれたらこの画像から体型のスキャンおおよそ3D化できるじゃん!最高かよ!
さぁ届いたら試着してみんなその姿をアップするんだ!
ZOZOありがとう! pic.twitter.com/A3BOYcozoE
教師なし学習の波が機械翻訳まできている
深層学習には膨大なデータが必要、ということは変わらないが、それが「教師あり」なのか「なし」なのかで更に労力は異なる。
労力がかからない教師なし学習で如何に教師あり学習の精度に追いつくか、というのが大きな流れの1つとしてあるが、こと「機械翻訳」のタスクにおいては当然翻訳の答えとなる教師データが必要と考えられていた。 それに対して、教師なし学習でもかなりの精度を出せるようになってきた論文についてくわしく解説してくれているありがたいブログ。(いつもお世話になっています!)ノイズ除去や”逆翻訳”というアイデアをうまく機能させるために「潜在表現空間を共有させる」という一見難しそうなアイデアをうまく説明してくれている。
「コレ考えた人、頭いいなー」と思える、膝を打つような体験に何度も出会えるのがこの進歩の早い分野の一番の魅力かもしれない。
Qiitaのタイトルに並んでいるだけで笑ってしまうからやめて
往年の「トリビアの泉」を見ているかのようなワクワクを感じながら読める。可視化一発芸として自分の中でランクインした。
ドコモの位置情報とDLでタクシーの需要予想
cloudplatform-jp.googleblog.com
ドコモの携帯ネットワークをつかった人口統計情報(つまり位置情報でしょ?)やその他もろもろの変数の合計120次元のデータをstacked denoising autoencoderに突っ込んで、500m四方エリア別の30分後のタクシー需要を95%程度の精度で予測するモデルをtensorflowで作った話。
需要予想モデルはエリアによってDLと自己回帰モデルを切り替えて使うらしい。すべてDLだけでやろうとしないところは正しいやり方だと思うし、実際に社会現象の予想モデルはきっと1つのモデルだけでは説明できないのだと思う。stacked denoising autoencoderを採用した理由はインプットデータのノイズを削減するのが精度を上げるためのキーだったからとのこと。
何はともあれ、社会が便利になるための技術活用は大歓迎。タクシーはともかく、電車の通勤ラッシュもなんとかならんものか…
このプロジェクトはNTTドコモと東京無線と富士通によって行われたそうだが、NTTグループはcorevoというAIブランドを独自に展開している。おそらく今回のタクシーの話はまた別なのだろうと思うが。
■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。 ■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。) ■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。 ■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。