WEEKLY人工無脳【第11号】(2018.6.11~6.17)

f:id:ysdyt:20180430031726p:plain

①見分け不可能な超絶精巧AIコラ技術がついに出来てしまった...

gigazine.net

今週の一番の衝撃はこれですかね。

自身の表情・目やまばたきの動き・口の動き・頭の動きをターゲットとなる人物に移す映像技術”Deep Video”についての話。自分が喋ってる映像を、限りなく本物に近いオバマ大統領に変換したりすることができる。

百聞は一見にしかず、とにかくリンク先の動画をみてほしいのですが、もうこれは完全に見分け不可能です。本当にありがとうございました。

以前にもAIがAVの顔面部分に有名人を合成する「フェイクポルノ」とかありましたが、それとは全く別モノのクオリティーです。

この技術を作った本人たちも、この技術がフェイク動画などに悪用されていることはわかっていて、対策として「こういう技術がもうあるということをみんな知って、動画見るときは本物かどうかちょっと疑ってみてね」とか開き直っててヤバイ。おそらくGANのgeneratorとdiscriminatorのように、AIが作ったものを抜けけるのももはやAIだけという状況になると思われる。

フェイクニュースをシェアしまくるおじさんたちをFBでもよく見かける昨今ですが、テキストや画像は精巧な偽物が作り出せても、動画はさすがに真実だろうと思っていた最後の砦が崩される日も近いですね。「うそをうそであると見抜ける人でないと難しい」のレベルはここまできてしまいました。アーメン。

②天才高校生プログラマー、レシートデータビジネス始めるってよ。

www.businessinsider.jp

レシートデータをユーザから10円で買い取り、ゆくゆくは企業にデータ販売するビジネスを開始した高校生の話。投資ファンドから1億円も調達済み。日本人は若い天才が大好きなのでメディアも今週たくさん記事にしていた印象です。

一方ツイッターでは、天才高校生を応援する声や、レシートビジネスってどうよ…という賛否に別れている印象。

個人的にも、レシートデータの分析をちょっとやったことがある経験から、そもそもレシートに正確な商品名が書かれてない(表記揺れが酷すぎたり途中で文字が切れてたりする)場合が多すぎて無理ゲーだった記憶。それとは別にフォーマットがバラバラな対象への機械的な文字読み取り(OCR)も難易度高そうだし、難しいチャンレンジになりそうな予感です。電子決済が進んで行く中でレシートはなくなりますし(アプリで電子的に管理される)、割と時代と逆行したモデルのような。

そんな凡人の考えとは裏腹に、早速死ぬほど買い取り依頼がきてサービスが一時停止になったり(買い取りを停止するまでの約16時間で、約7万人のユーザーから合計約24万5000枚の買い取り依頼があったらしい…)、 付箋でも葉っぱでも10円で買い取られるぞ!ということで騒ぎになったり、話題に事欠かない1週間となった模様。新しいビジネスを作るというのは大変や…

③「耳の形」を見て絵師を当てるAIさん、ガチな絵師ファンみたいな当て方が面白い。

www.sankei.com

(たぶんCNNの)転移学習を使って源氏絵の絵師流派4分類を96%精度で分類。さらにモデルの注目箇所をGrad-CAMで可視化したところ、専門家が見るところとは異なる「貴族の耳」に注目していた、という話。 深層学習の適応先が日本絵画というのも素敵な感じ。

学習データを作る際に、約3万枚の源氏絵画像から人の顔を切り出したところ560枚しか得られず、そこで別の学習済みモデルを使ってファインチューニングして精度を上げたとのこと。

学習済みモデルは、”数百万枚の画像を使った学習が済んでおり、図形を認識できる既存のAI”と説明されており詳細は不明。ちょっと気になる。

Grad-CAMの結果、モデルの分類時は「貴族の耳」の形に注目していることがわかり、普段専門家が分類するときとは異なる点を見ていたところが驚きポイントだったらしいです。

こういった分野では大御所の先生が「◯◯だ!」といえば異論を挟みにくい雰囲気があったりするそうなのですが、「AIが言ったなら仕方ない」という逃げ道ができて中の人達は嬉しそう。古い業界での人工知能の本当の価値は、確度の高い答えを教えてくれるのに負けずとも劣らず、「体のいい言い訳」を作ってくれることなのかもしれない。

与太話ですが、以前友人たちと「MSゴシック絶対許さんマン」というフォントの識別を行うCNNモデルを作成し、Maker Faireに展示したことがあったのですが、その時もモデル注目箇所をGrad-CAMで可視化したところ、フォントを扱うデザイナーの方が注目している点と異なる箇所を識別ポイントにしていたことがわかったので、こういった発見の驚きと楽しさはすごくわかります。

チームメンバーと頑張って作成したので良かったら見てみてください -> CNNは絵札のどの部分に注目してフォントを見分けているか

④デバイス側で深層学習するカメラ、Amazonの”DeepLens”

japanese.engadget.com

ネットワークに接続せず、デバイス上で深層学習を用いた画像認識などを行えます。 という、Amazon謹製のカメラが249ドル(約2万8000円)でアメリカで発売開始されたという話。

Alexaといい、Amazon様がイケイケ過ぎる。カメラのデザインもイケてる感じ(充電ケーブルが白いのかどうか気になりますね。)

DeepLensにはGreengrass、TensorFlow、SageMakerなど、最新のツールが付属。また、「歯を磨く」「ギターを弾く」など30種の動作を識別したり、犬や猫を見分けたり、ホットドックかそうではないかを見極めるものなど、学習済みの深層学習モデルもセットされており、別途環境などを用意しなくても、誰でも10分以内に深層学習を始められるとしています。

詳細はよくわからないものの、学習済みモデルを使って推論に使うだけでなく、将来的には学習もクライアントだけで行えるようになるような雰囲気(?)ですね。スマートホームの”目”のポジションを狙った商品なんでしょうか。もう生活がラクで楽しくなるならどんなデータでも持っていっていいよAmazonさん(とgoogleさん)という気分。

⑤AIで声を取り戻したジャーナリスト

www.bbc.com

BBCの和訳記事。喉の病気で発話機能を失ったベテランジャーナリストが、自身の膨大なラジオ放送データを学習に使い、自身の声を合成する深層学習モデルで仕事復帰したという話。 その肉声(?)が聞けるリンクがぱっと探した感じでは見つからなかったのが残念。

上でも挙げたフェイク動画や、第6号でも挙げたgoogleの電話予約AI”Duplex”のように、音声合成系の技術発展が最近加速度的にすごい。深層学習様様。

今では、ウェブサイトに載っている文章を録音すると、500ポンド(約7万3000円)で数日間で音声を生成してくれるようになった。

というように、膨大な音声データを必要とせず、少量のデータから効率的に学習する方法もビジネスとして確立しているというのが面白いですね。我々が初音ミクで満足しているうちに、世界もどんどん進んでいるのだ…

⑥”目で見えないもの”も予測するニューラルネット

japan.cnet.com

動く人の映像と、そのときの電波反射パターンデータを組み合わせて学習することで、カメラで写すことのできない壁越しの人間の動きまでニューラルネットで推測できるようになったという話。理屈もわかるし予想もできますが、やっぱりすごいなー。

ちょっと話は飛躍しますが、人間が知覚できるのと同じ可視光下の映像や音域のデータだけでなく、もっと広いデータを使えば、AI的なものは人間がいうところの”第六感”的なものも推測できるようになるのかもしれませんね。そういう実例を誰かが出してくれるのを密かに期待しています。”おばけ”的な不可視な存在がやっぱり存在するみたいだぞ、とか。

⑦面白かったARネタも貼っとく

⑧日本の人口密度分布図可視化

機械学習で”画像を見ずに”細胞分類を超高速高精度に行うシステム “ゴーストサイトメトリー”が超かっこいい

www.jst.go.jp

100人の男に聞くと、100人がかっこいいと答えるであろう中二心をくすぐるネーミングセンス。いや、カッコイイのは名前だけじゃないのだ。

生物学領域の話ですが、人間よりも千倍以上早く細胞を識別して選り分ける機械学習システムのお話。産学連携・ハードウェア/ソフトウェアと様々な領域を越境して研究開発し、その成果はScience紙にも掲載されたそうです。

細胞を適切に分類する作業は、さまざまな診断や再生医療・細胞治療など高い安全性や信頼性の求められる医療に必須の技術です。しかし、人間が手作業で細胞の”見た目”から選り分けることは非常に難しくかつ遅いことが問題でした。その後、さまざまな自動分類技術が発達したものの処理速度と分類精度のトレードオフがあり難しい領域だったそうです。

ゴーストサイトメトリーは、人間が関与しない細胞分類システムとして、画像(人が認識するためのデータ形式)を作らずに、単一画素圧縮計測信号を直接機械学習モデルに判別させるというシステムだそうです。 イメージ的には、人間が理解できる高級言語(画像)ではなく、1/0のバイナリ情報(圧縮したピクセル情報的なもの?)を直接学習させることでスループットと精度をあげている、という話だと思われます(怪しい) 画像情報を使わずに情報のエッセンスを処理させるところを”ゴーストを見ている”と表現しているネーミングセンスに嫉妬。

これによって、大きさも同じで人の目で見ても形の似た細胞でさえも超高速・高精度に分析・判別できるようになったそうです。 ハードウェア的には、超微細な蛍光標識データをどう検知するか、ソフトウェア的にはリアルタイムイメージ情報処理手法の開発が重大な課題となっていたところ、光・流体・電気ハードウェアと機械学習ソフトウェアを密に結合することで、両課題を一挙に解決したそう。

日本の誇るべき技術!と言いたいところですが、競争の厳しさはもちろんサイエンスの世界にもあるわけで…

⑩ AI・データ活用案件の進め方指南書が経済産業省から公開されたぞ!

www.meti.go.jp

データ分析活用やAI開発案件には、データや機械学習が内包する特性を理解した上で、一般的な受託分析やシステム開発スキームとは異なるスキームで契約や進行をすることが多いです。

「偉い人からの命令とお金ならあるんや!」という豪胆な企業もあるものの、そもそもどこに発注すればいいか、どういった要件定義が必要か、何を考慮しておかないと失敗するリスクがあるかなど、なかなか把握しにくい部分があるのもたしかです。 具体的な実例が少ない「データ・AI案件」に対して、「案件やるならこういった項目を検討しないと大変だよ」というガイドライン経済産業省有識者が作ってくれたそうです。

内容は以下の2点について。

  • データ編

    データの流通や利⽤を対象とする契約について、各契約当事者の⽴場を検討し、⼀般的に契約で定めておくべき事項を改めて類型別に整理した上で列挙するとともに、その契約条項例や条項作成時の考慮要素を提⽰。

つまり、データの受け渡し・共有が発生する契約のときに気をつけておくポイントなどが書かれた指南書。

  • AI編

    AIソフトウェアの特性を踏まえた上で、開発・利⽤契約を作成するにあたっての考慮要素、当事者の適切なインセンティブ形成の⽅法、トラブル予防⽅法等についての基本的考え⽅を提⽰。

つまり、AIシステムを作る仕事を契約するときのハマりポイントを教えてくれる指南書っぽい。

本文はPDFで356ページにも渡るものでこちらはヤバイのですが、それとは別に概要をまとめた7ページのものもあるので、AI案件をやらないといけない人たちは一読の価値ありだと思われます。

⑪数枚の2D画像から3Dモデルを生成するGQNがすごすぎてもうよくわからない

PFN岡之原さんが「この1~2年内の最大の進歩」という話。ゴゴゴゴ。。。

deepmind.com

人間の場合、たとえそれが初めて見る彫刻だったとしても、一方向からそれを眺めるだけで「反対から見るとこういう形だろうな」「厚みはこれくらいだな」「真上から見るとこうだろうな」という”立体感”を当たり前のように想像することでできますが、機械の場合、限られた方向からの画像を数枚見せたくらいではそういう推測はもちろんできず、実現するためには膨大な教師データと学習が必要でした。

それを新時代の神ことDeepMind様が「出来たよ」と発表したのがGenerative Query Network(GQN)という新技術。

教師データ無しで!しかも異なる視点からの数枚の画像だけを元に!3Dモデルを生成する!という驚くべき技術。 機械がこのレベルまで3D空間を再現ができるようになると、いよいよ言葉通りの”人工知能”じみてきた感。

最近は当たり前のように2次元画像だけから深度センサー無しに深度(対象までの距離)を再現できるようになってますが、(それだけでも未だにめっちゃすごいと思うのですが…)、ついに距離だけではなく立体物までも再現できるようになってきました。 現在は単純な形のオブジェクトしか生成できないとしているものの、もっと複雑なものも構成できるのは時間の問題でしょう。はー、すごい。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第10号】(2018.6.4~6.10)

f:id:ysdyt:20180430031726p:plain

①きゅうり農家小池さん『俺が人工知能だ!!!』

news.mynavi.jp

機械学習界隈で「きゅうり」といえば知らない人はいない小池さんのきゅうりマシン奮闘記の振り返りとこれから的なお話。 実は筆者が人生で初めてバズった記事がきゅうりマシンを紹介した記事だったりするので個人的にファンでずっと応援してます。

何はともあれ、誰もが注目してしまうのはここでしょう。

1.4倍の作業スピードの向上が図れたが、半年後にはわたしの判断能力が向上したため現在は使っていない。

学習用の正解データ作りすぎて「俺が人工知能だ!」状態。

め  っ  ち  ゃ  わ  か  る  … !!! 完全に機械学習アルアルです。

「当初は完全自動化を目指したが、最終的には”人間のサポート”役と位置付けた』という話も納得しか無い。 人間が行うリアル世界の活動を完全に機械学習で完全に代替えする難しさを実地で実践されてて尊い

この記事も、「いろいろやったけど最終的に無理でしたわー」という話ではなく、人間のサポート役とした三号機はきゅうり仕分け作業の初心者や未経験者には効果的なのではと説明しつつ、

8月には4号機を完成させたい。最終的には、自動収穫ロボットを開発できればと考えている。農業の効率化にテクノロジーを活用し、品質向上や収量の増加、栽培ノウハウの継承に取り組んでいければ理想的だ

相変わらずカッコイイです小池さん。

②デジタルアートと機械学習APIはきっと相性が良い

cloudplatform-jp.googleblog.com

紅白歌合戦などでもPerfumeライブの特殊演出はすっかり有名になりましたが、それを手がけているのがライゾマティクスというメディアアート集団です。個人的には超大好き。

そのライブの特殊演出に、ライゾマはGoogle機械学習APIを使っているというお話。具体的には

  • 一般から募集しアップロードされた約23,000枚の写真をリアルタイムに画像解析し、PerfumeのMVの類似したフレームを検索するインタラクティブコンテンツとして公開。ライブ当日もステージ上の演出素材として活用
  • perfumeのすべてのMVからフレーム画像を作成し、tensorflowで画像分類。t-SNEで二次元に潰してコラージュ画像を作成

というもの。

GoogleやMSが提供する機械学習系のAPIは、ビジネスに使うには少し痒いところに手が届かない・利用料金が高い・精度が微妙に足りないという部分もあるものの、デジタルアートの一部として活用されるのは非常に親和性が高そう。特に、2つ目の作品は個人でも作れそうなので、こういった趣味活動をして名を挙げるメディアアーティスト的な人は増えそうですね。

③可視化業界のタブー?「顔の美しさ」を数値化

www.itmedia.co.jp

Microsoftの年次イベント「de:code 2018」で東大の研究室が発表した「女性の顔の綺麗さを機械的に数値化する」技術の話。

正確には、「人工知能が女性の顔の“魅力度”を判定し、最も魅力が高まるような化粧を推薦してくれる」と謳われているが、本質的には「人間(特に女性)の顔の美醜の数値化」であると思う。(そのまま言ったら絶対に炎上するので良い感じに見せ方を変えたのだと…)

機械学習を勉強して、なにかオリジナルのアプリ的なものを作ろうとした人は必ずは一度は考えたであろうネタを、東大研究室がガチでやってて草。でも誰もが取り組みたくなる魅力はありますよねー。わかる。

手法としては、女性の顔の美醜を人間が点数化(1~5点)し、それを教師データとして顔画像を学習させたらしい。結果、実際に人間の評価と比べても非常に強い相関が見られた(相関係数0.85程度)とのことでなんだかんだすごい。デモで出されている結果写真をみてもわからんこともない。

不謹慎と言われるかもですが、こういった機能をマッチングサイトとかは真面目に実装すればいいのになと思ったりもします。”顔の好み”を数値化してレコメンドに活かすとかすれば、批判もあるでしょうが間違いなくユーザーは爆増するかと。

個人的には、

「女性の顔については、古今東西、大体同じ評価尺度が存在することが、心理学の分野で判明している。一方、男性の顔の魅力については、複数の評価尺度があるといわれている。 という話も面白い。”男の魅力”に関してはもっと動物的な感じで、権力的なものが男性の魅力としてカウントされる側面も多分にありますしね…

ちなみに、「顔の数値化」は過去にもいろんな人がトライしていて、クリエイティブラボpartyも2016年にDeeplooksというウェブアプリを出してます。

(追記)すでにディスりがまとめられていました。なんというか、こういうのは「できるからやった」感が強いと思っています。人間の顔の定量的な分析は昔から多くの人の興味分野で、「平均顔」とか「信頼を得やすい顔」とかと同じ話の延長にあるだけかと。

④ハチに学ぶ効率的な脳の仕組み

gigazine.net

面白い! ハチがゼロという概念を持ってるっぽいぞというための実験方法が意外にシンプルなのも面白いです。 で、生物学的な発見として、ハチにも数字の概念あるのかもね、すごいねってだけではなく、話のオチとして

人間の脳には800億個の神経細胞があるのに対して、ミツバチにある神経細胞は100万個未満だとのこと。少ないニューロンにもかかわらず高度な知能を備えたミツバチの脳を研究することで、より少ないニューロンで高度な計算を行えるメカニズムを解明できれば、ニューラルネットワーク技術を活用するAI技術にも転用できるのではないかと期待されています。

と、人工知能的な話に向かってるのに時代を感じますねー。

ちょっと話が脱線しますが、毎週楽しみに聞いてる今週のバイリンガルニュースで、もしも地球外知的生命体に遭遇したら実際はどうやって意思疎通をとるかというワークショップが学会で開かれたという話が紹介されてました。

実際は言語交渉よりもまずは数学の概念を使った意思疎通を試みるとのことです。確かに数学的概念の方が人間言語よりは共通理解を得られそうな気がしてなるほどーという感じなんですが、ハチよろしく、数学的な概念を持ってる生物は実はもっといたりすると面白いですね。アリとかもわかってそう。猫は何もわかってなさそう。

Appleも出した”GUI機械学習”。使いどころが未だにわからない…

shu223.hatenablog.com

WWDC18でAppleGUIで操作する機械学習モデル”Create ML”を発表。macOS 10.14 Mojaveから使えるそうです。 実質3行ほどのコードを書くだけで画像分類的なタスクがGUIで完了する、らしい。

Googleもプログラミング不要のAutoMLを出していて、両モデルとも、”ドラッグアンドドロップインターフェイスで実行できる!”というのが大切らしいが、未だに「これで流行るのだろうか…どういいった人がどんなときに使うのだろうか…」という疑問を抱え続けている…

GUI機械学習、実際はどこまで広まるだろうか。

⑥子どもたちが鉛筆を振る未来が見える…見えるぞ…!

nlab.itmedia.co.jp

子供向けIoTネタ。 鉛筆に加速度計をつけ、勉強した時間を計測してポイントを貯め、アプリ内の謎の生き物(?)を育てるゲーミフィケーションアプリ。 シンプルなのにたしかに楽しそうで、「やられた!!!」と思ってる人も少なくなさそう。

謎の生き物をもっとデジモンとかムシキング的なキャラクターにできると新たなウンコ漢字ドリル的キラーコンテンツにならないかしら。 まぁ流行ったら流行ったで、鉛筆を振るだけの本末転倒作業が始まってしまうのですけど…

個人的には、「え、現代の小学生もまだ鉛筆使ってるんだ」ってちょっと思いました…平成ももう終わるよ…?

⑦なぜ企業は”研究”をすべきか

Preferred Networks における研究活動 | Preferred Research

“日本のDeepMind”こと(敬意を込めて心の中で勝手に呼んでる)、PFNさんの『PFNはなぜ研究をするのか?』についての記事。

日本の機械学習業界でトップを走る企業の”研究活動”に対する姿勢や意義のアイデアが語られていて興味深いです。基本的にはPFNさんのカッコイイ話が書かれている強いリクルーティング記事っぽいですが、”AI研究部署”を持つ企業は一読の価値ありだと思います。すでにトップレベルの技術力を持つPFNさんが、「いや、まだまだやねん、今後ももっと重点的に強化していく予定やで」って言われると他の企業は真顔にならざるをえない。

PFNのような企業で、今すぐ直接お金に結びつかないような研究をする意味はあるのでしょうか?例えば、論文を書こうと思えば貴重な業務の時間をごっそりと使ってしまうことになるし、それを出版すれば社外の人たちに技術を教えてしまうことになります。こう考えると、学術的研究や論文執筆は、会社にとってマイナスの活動のようにすら見えます。

AI活用を目指す多くの企業がこれに対して明確な答えを持っていないと、名ばかりのAI研究部署で優秀な技術者を飼い殺す可能性があって怖いなと感じるこの頃です。

この記事ではこの問に対して、PFN流の「現状には過剰と思える技術を開発する必要性」「外部発表をする意義」「他者とのコラボレーションの価値」などについて説明されています。

個人的にはここがめっちゃかっこよくて好き。

アラン・ケイの「未来を予測する最善の方法は、それを発明することだ」という言葉は、実際にいくつかの分野で世界をリードしたりトップに迫ったりといった成果を出すことができている我々にとって、大きな実感があります。

⑧DeepMindが一連の機械学習アルゴリズムに国際特許出願

ipkitten.blogspot.com

DeepMindが発表していた一連の機械学習アルゴリズムに国際特許出願していたことがわかったという結構びっくりな話。AIをビジネスにしているところは広く関係する話。

特許申請は2016年9月から2016年12月の期間に週にほぼ1回の頻度で出されていたらしく、さらに2016年12月以降に提出された申請はまだ一般公開されていないので、まだまだ他にも出願済みのものがあるかもとのこと。

AIに関する特許取得は世界的なトレンドのようで、もちろんgoogle本社もAI系分野を含めた技術特許を取りまくっている会社。しかしDeepMindの経営理念は「研究コミュニティと人類全体の利益のためのAI研究の発展」としているので、それと特許取得がどう関係しているのかとツッコミが入っている。

DeepMindがある日突然パテントトロールみたいになることは多分無い(そうなったら世界的にAI業界が停滞しそう)と思われますが、悪意を持って利用する人はいくらでもいるので、守るもんは守っとくかという感じであることを期待。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第9号】(2018.5.28~6.3)

f:id:ysdyt:20180430031726p:plain

① 食事療法とか食育って実は馬鹿にできない

個人的に今週一番アツかったネタ。データサイエンスからはちょっと分野が違うかもですが、生物学の分野の話題です(自分がもともと生物学出身なので反応してしまう…)。

てんかん治療に対してはケトン食という脂質をメインに摂取する食事療法が経験的に効くとされ行われていますが、そのメカニズムを科学的に示した研究の話。

以下ざっくりした用語の説明。

  • てんかん・・・慢性の脳疾患。主に18歳までの子供が多く発症し、症状としては全身の痙攣や発作、意識消失などが起こる。てんかんの原因は、大脳神経細胞の電位活動の乱れとされている(「脳の電気的嵐」と例えられるらしい)。発症率は100人に一人ほど。現在の医療では、適切な治療で発作を70~80%の人でコントロール可能であり、多くの人たちが普通に社会生活を送れる。(参考ページ
  • ケトン食療法・・・日本ではマイナーだが、主にイギリス・アメリカなどで行われるてんかん対策の食事療法。摂取エネルギーの60~90%を脂肪で摂り、糖・炭水化物の摂取を極端に減らすことにより、体内でエネルギー源として通常使われている糖を枯渇させ、代わりに脂肪が分解されて生じるケトン体をエネルギー源として利用するというもの。統計的に効果があるとされて実践されている。極端な食事制限を行うため実施には専門医の判断が必要。(参考ページ
  • 腸内細菌叢・・・ヒトや動物の腸内で一定の分布を保ちながら共存している多種多様な腸内細菌の集まり。(人間の体重のうち、2kgほどが腸内にいる細菌の重さと言われている)。人の健康状態にも大きく関与しており、世間的にも研究分野としても最近すごく注目されている。細菌叢は人種によって分布が異なり、また健康な人の腸内には、特定の菌が一定の分布で共生している。病気などになるとそれらの分布が乱れたりすることも知られている。なので、適切な腸内細菌の分布を保つことが健康にもつながるとされている。「糞便移植」という治療法などもあって、健康な人の便から採取した菌を、便秘の人の腸に流し込むと便秘が治るというのもある。(健康な人の健康な菌とその分布を移植する、ということ)
  • 脳腸相関・・・脳と腸は自律神経系や液性因子(ホルモンやサイトカインなど)を介して密に関連していることが知られていて、この双方向的な関連を”脳腸相関”とよぶ。脳と腸の関係性は昔から指摘されていたものの、最近はそれらが科学的にも証明されつつある。(腸内の膨大な数の細菌の遺伝子情報を読めるハードウェア技術や、そこから得られる膨大なデータの分析技術が近年でかなり発達したことが大きく貢献しているっぽい)(参考ページ)

この研究では、ケトン食によって腸内細菌が変化し、その変化が脳内物質の構成に影響し(脳腸相関)、てんかんを抑えるのかもしれないという話らしいです。

オカルトっぽいもの・民間療法・経験的に正しい(理由知らないけど文化的に継承されてきたやり方なども含む)などが、最新の科学技術で証明されるのってめちゃくちゃロマン感じますよね!実は”漢方”とかも科学的なエビデンスがないものの、経験的に効くから今も使われているという感じらしいのですが、こういった話は意外とあるのです…

第7号の「人間は直接見ることのできない頭の後ろ側の情報も無意識に処理している」話のように、人間が知覚していない・言語化できないが”実際には起こっている”ことを、機械が計算力の暴力によって暴いていく話が好き。

② 1企業が遺伝子情報を解き明かす時代。21世紀のサービス設計だ…。

www.itmedia.co.jp

「バストの大きさは遺伝(の可能性がある)だぜ!」ってところに意識を持っていかれがちですが、ちょっと背景について見てみたいところです。

この結果を出したデータは

エムティーアイが運営する生理日管理アプリ「ルナルナ」を利用している女性ユーザー1万1348人から得た、遺伝情報と22の体質に関するWebアンケート結果を分析した とされています。

実はティーエムアイ社は「株式会社エバージーン」という100%子会社を持っていて、そこが”Dear Gene”という遺伝子解析キットの販売を行っています。

1企業がアプリで体質の定性データを集めて、サービスで遺伝子情報の定量データ集めて、それを大学と共同研究して今回の結果を論文にしたぜっていうことであれば、ものすごいかっこいいしどれだけ大変だったんだという…。苦労が忍ばれるってもんですよ。。。

oh,,,

23andmeのような遺伝子解析ベンチャーが登場したころから、こういった方法でデータ集めるとビジネスになるねというアイデアはずっと言われてましたが、ほんとに儲かるかもわからないしハードウェア扱うリスクもきっと少なくないし、実際にやってのけるのは並大抵のことではないはず。ツイッターのコメントなどをみてると、「気持ち悪い」というような感想もチラチラみえるのですが、自分は称賛したいです。21世紀のビジネスだなー。

東大とエムティーアイ社のプレスリリースはこちら

③ また新しい医療診断AIがFDAに認可されたぞ!今度は骨折検知だ!

www.technologyreview.jp

FDAがまた医療診断AIを認可してた。手首のX線画像から骨折箇所を検知してくれる君。 一番最初に認可された医療診断AIは「糖尿病網膜症を検出してくれる君」でしたが、それが今年の4月11日の出来事だったので着々と医療診断AIの認可が進められているっぽい。良い流れ。

SNSの事件事故投稿ツイートは機械学習で探しているらしい

ascii.jp

主要SNSを巡回し、深層学習による画像識別を行って本物の事件事故っぽい内容かどうかを判断するツールを作っている会社の話。サービス開始が2016年4月なのに、NHK・テレビ局・新聞社など130社が導入しているそう。儲かってますな〜。

事故現場の画像をツイートした個人にテレビ局がメンションを飛ばして、画像の利用許可を求めているやりとりを何度か目にしたことがありますが、こういったツールでツイートを見つけていたんですねー。

画像以外にも自然言語処理によって事件事故現場の場所を探したり、画像にある看板などの文字を認識して住所を割り出すようなこともしているらしい。

知り合いが昔、某報道機関でツイッターを巡回してニュースになりそうなツイートを探すというバイトをしていたことがあるらしいのですが、順当に機械化が進んでいていいですね。

⑤ 万引き検知AIの前で死ぬほど堂々と万引きするとどうなるか知りたい

www.itmedia.co.jp

防犯カメラで取得する動画にリアルタイムに姿勢推定を行い、万引き犯独特の動きをする人物を検知すると店員にアラートを飛ばすシステムの話。アラートを受け取った店員は当該者に声掛け(ex.なにかお探しですか?)することで万引きを防止するという運用方法。

Amazon Goのようなシステムがある一方で、防犯カメラを賢くするシステムを作るというのもなんだか面白い感じですね。

来店者の頭や骨格の動きを捉え、万引きが疑われる行動かを判断している。不審な行動は、店舗の形態ごとに異なる。例えば、スーパーマーケットでは、店内を回遊しながらきょろきょろと死角を探す、書店では、棚の前に立ち止まって周囲を確認する――といったように、特徴的な動作をチェックする。

万引きGメンがいるくらいだから(人間でもわかるのだから)、確かに機械的にも実現できそうではある。 実際に都内のドラックストアの実証実験では、年間約350万円の万引き被害が導入後は年間約200万円に減ったらしい(というか万引きされすぎでは…)

初期費用は、AIカメラが1台当たり23万8000円(税別/以下同)。設置・設定費用が別途掛かる。クラウド利用料は、カメラ1台ごとに月額4000円。映像を保存するストレージは月額500円(10GB)から。

儲かりますな〜〜〜

あとはPrecision/Recall(誤検知・見逃し)がどれくらいかとか気になりますね。 ”怪しい動き”を検知するのであれば、死ぬほど堂々と万引きすると検知されないんですかね。AI監視カメラに任せきった店は逆に被害額増える、みたいな。 検知の方法がなんとなく予想できる良いデータサイエンティストの皆さんは、決してprecisionを確認するためにわざと良い感じの物陰に移動したりすごいキョロキョロだけして店員に声かけられるかどうかを試す、みたいなことはやめましょうね。約束だよ!

⑥ 画像認識で鶏舎の死んだ鶏検知。このもやもやする気持ちはなんだろう…

www.itmedia.co.jp

カメラを載せた台車を鶏舎内で走らせ、ゲージ内の様子を撮影。あらかじめ36万枚の画像を学習させたAIが、撮影した動画を分析し、死んだ鶏を検知する仕組みだ。

実証実験では、90%以上の精度で死んだ鶏を検知でき、作業時間を従来の5分の1にできたという。

農協組合員の農場で2017年5月から実証実験を進めており、20年度の実用化を目指す。

人間がやるまでもない作業をすべて機械学習で自動化する活動には全面的に賛成派なのですが、これはなんだかちょっと考えさせられますね。と、いうか、なんでこんなダークな印象の写真をわざわざ掲載したんでしょう、それにもすごくひっかかるのですが。。。

かなりの検知精度、そして明確に作業者の時間が短縮されているそうですが、自動運転と同じく、生き物の命に関する領域にAI的なものが少しでも関与するときはきっと異論もたくさんでるので、それがたとえ家畜に対するものであっても(プレスリリースなどの発表も含め)もう少しセンシティブに取り扱うべきかもしれないなと感じました。

⑦ 深層学習で鉄塔のサビ検知

news.nicovideo.jp

Automagi株式会社は、画像や監視カメラの映像から鉄塔や橋梁のさびの発生の検知や、発生範囲の特定を行うことが可能なAIソリューションを2018年5月29日(火)より提供を開始いたします。

用途が面白いなーと感じたのと、アイキャッチ画像がイカしてますね! おそらくセマンティックセグメンテーションとかでサビ領域の検知をしていると思われますが、サビにもいろんな種類や色があると思うので、これも検知精度が気になるところです。

橋やビルのような大型の建造物は、ドローンやIoT的なセンサーで画像を取得して機械学習で異常を検知する流れがもっと導入されてほしいですね。

高齢者によるAIスピーカー活用事例

note.mu

おばあちゃんへのプレゼントとして娘さんがgoogle homeをプレゼントし、主に「挨拶」「spotifyによる演歌の再生」「孫と一緒に遊ぶネタ」に活用されているという内容。おばあちゃんとスピーカーは家族のように過ごしているというお話。

我が家では、「ちょっとは使えたけど、まぁだいたい実用的ではないなあ」「一周してPCとスマホのほうが早いしラクだわ」と感じてほぼほぼ封印状態にあるAIスピーカーなのですが、この単純なタスクしか処理できない微妙な人工無脳感が高齢者や小さな子ども相手にはちょうど良い感じなのかもしれません。spotifyの演歌プレイリストは良い感じっぽい。

文書の途中以降は有料なので買って最後まで読んでみましたが、主には「なぜAmazon EchoではなくGoogle Homeを選んだか」というお話が続きます。有料なので詳細は書きませんが、確かに言われてみれば、Googleは検索の会社だったので回答できるバリエーションが多いですし、リテラシーの余り高くない高齢者や子供にはGoogle HomeのUIのほうが扱いやすいのかもしれないなー、という内容でした。

⑨ え、深層学習をビジネス活用?古今東西、趣味の力が一番強いんだよ!!!

第8号でも紹介した、GANで美少女イラストを生成するMakeGirlsMoeでも有名な@_aixileさんの最新作。写真からアニメ画像への変換。CycleGANの改良らしいですが、なんだこのクオリティーは…。”Ongoing work Still improving it”らしい… 御本人の解説動画はこちら

複雑系生物の動きを可視化する技術

wired.jp

ハチを捕まえて物理的にQRコードをくっつけて、めちゃくちゃ精査に活動を観察したところ、社畜のように機械的で無個性っぽい彼らが、個体レベルでは個性的だったことがわかったという話。PLOSONEに掲載された論文が元ネタなので、この日本語記事ではそこまで詳細な話が載っていない。また元論文はハチの生態というよりはトラッキング技術の開発話がメインのようです。

ハチのような典型的な複雑系の活動をする生き物は個々にトラッキングを行い、それを網羅的に解析する手法が良さそうです。意外にもそういった”データで殴る”系の研究はあまり進んでいないのかもしれない。(タグを付けられるハチへの負担もありますしね…)

こういった研究でハチの具体的な活動や役割がわかれば、「薬剤の影響を調べる実験」などにも貢献できるという話が面白かったです。確かに、そもそもハチの普段の行動を理解できていないと、たとえ薬剤投与を行って死ななかったとしても、本来の役割をこなせないゾンビみたいな状態になっていても「死ななかったから安全」という判定となり、本来の実験の意味が全くなくなってしまわけです。

さすがに画像認識技術だけでハチを個別に識別するのは難しそうなので、こういったハード側の技術を導入しなければいけないっぽいです。研究の世界は大変だ。

⑪ デザイナー考案の効果的な可視化方法がPythonモジュールになるまで

myenigma.hatenablog.com

たぶんこんな感じのtwitter上の流れで進んできた話。

そして最後に、一番上記の記事が公開されたようです。 可視化のデザインブログが公開されてからたった2週間で有志によってpythonモジュール実装された… きっとお互いに面識のないtwitter上の知り合いだと思うのですが、あっという間にラッパー的なものが出来上がってすごい。This is the Internet!

それにしても、描画ライブラリといえば我々はこれまでもmatplotlib, ggplot, Seaborn, PandasPlot, plotly, Bokehなどに都度都度 筆を持ち替え戦い続けてきたのですけど、いつになったらこの戦いは終わるのだ…

⑫ 赤ちゃんの鳴き声を機械学習して泣いている理由を教えてくれる”バウリンガル”的なアプリ

wired.jp

カリフォルニア大学ロサンゼルス校(UCLA)のコンピューター神経心理学者が作った、「赤ちゃんの泣いている理由」を教えてくれる無料アプリについて。

赤ちゃんの泣き声のうち、「おなかがすいた!」「おむつを替えて!」「痛い!」のどれなのかを識別してくれる。1700人を超える赤ちゃんの泣き声を収集し学習させ作成したらしいです。

新米お母さんはともかく、第2子、第3子を生んだお母さんが「鳴き声を聞くだけでおっぱいかオムツかわかる」という声は割とよく聞くので、それならたしかに機械が学習することも可能かもしれません。 またこのアプリは、泣き声の不規則性から自閉症の診断ができるようになることも目指しているらしいです。

こういった、子育て分野にITを導入するムーブメントは”BabyTech”とも呼ばれていて、個人的にも非常に関心が高い分野です。

最近自分が知ったなかで面白かったものは、Openposeで”うつ伏せ寝”の検知を行ったり、睡眠アプリで睡眠時間を記録して”ネントレ”(赤ちゃんの睡眠時間をある程度コントロールする)を行うなどかなり面白いし便利そうです。データドリブンに育児をしたり、機械学習に一部代用させたりする流れはきっともっと大きくなると思います。

⑬ ものすごいメンツの企業が過去最大のデータ共有の取り組みを始めたけどうまくいく未来が全然見えない…

www.nikkei.com

コンビニ同士の闘いからは完全に抜きん出てしまったセブン&アイグループが、さらに未来的な取り組みを他業界と始めたそうです。

セブン&アイ・ホールディングスは、データ活用のための取り組みとして、6月1日に「セブン&アイ・データラボ」を開始した。 同ラボは、幅広い業界の参加企業がそれぞれ保有する豊富な統計データの相互活用から新たな知見を得ることで、課題解決を目指す。 参加企業はANAホールディングス株式会社、株式会社NTTドコモ、株式会社ディー・エヌ・エー東京急行電鉄株式会社、東京電力エナジーパートナー株式会社、株式会社三井住友フィナンシャルグループ三井物産株式会社の10社 企業間におけるビッグデータの連携としては、過去最大級の取り組みとなります。

メンツがすごすぎる。一体なんだこれは… そして、これからの時代はアルゴリズムでは差がつかないから、各企業がどれだけオリジナルなデータを大量に持てるかどうかが戦い、といっているときに、「企業間でデータ共有しようね」という取り組みがうまくいく未来が微塵も見えないのですがどうなんでしょう…。わりと普通に謎プロジェクトだ…。 詳しい情報は現在まだ出ていないようなので続報を待ちましょう。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第8号】(2018.5.21~5.27)

f:id:ysdyt:20180430031726p:plain

① 五万回くらい頷いたし、全ページニヤニヤが止まらないので分析官は電車閲覧注意なスライド

docs.google.com

分析案件あるあるなパターンをまとめたスライド。完全なアリよりのアリでマジ卍すぎて苦笑がとまらない。

@chezouさんによるkawasaki.rbでの発表資料。 機械学習工学研究会で話足りなかったことを話されたスライドのようです。機械学習工学会のスライドとの砕け方の落差が好き。

個人的に一番笑ったのは、

「我が社はデータが山のようにあって」 「はいはい、MySQLに1億レコードね」

② いろんなGAN

ラーメン二郎生成といえば@knjcodeですね。もはやラーメン屋。

それにしてもGAN生成の連続画のゾワゾワする感じはなんなんでしょうか…悪夢っぽい。

どうでもいんですが、twitterの縦に流れるUIって、こういったショート動画載せるには一覧性やお手軽さ的に最強のメディアだと思うのです。ユニークなGAN動画があつまるハッシュタグとかあればちょっとしたアート作品になりそう。

③ 画像認識を使った麻雀支援アプリが良さそう

mj-news.net

東北大学の学生5名チームが、学生向けハッカソン「JPHACKS2017」で麻雀支援アプリを作成し、審査員特別賞の他4つの企業賞を同時受賞した話。麻雀牌の画像認識には機械学習が使われているっぽい。

完成度は高そうですが、現在は一般にリリースされているわけではないようです。めちゃくちゃ大きなニーズとまではいかなくても確実なニーズはありそう。

牌の画像認識をどうやっているのか技術詳細は不明ですが、SSDで牌の検知を試みたこちらの記事によると、牌中に繰り返し現れる構造などもあり、単純には難しい模様。また、牌のデザインは製品によって微妙に異なると思われるので、そのへんをどこまでカバーできているのかも気になるところです。

④(悲報)新たに「共感モデル」が搭載されたりんな氏、既読スルーを覚える

pc.watch.impress.co.jp

りんなに新しいモデルが搭載され、「新しい話題を切り出す」「質問する」「相手の発言を肯定する」「相づちを打つ」が出来るようになったらしい。マジかよだいたいのコミュ障を越えたじゃん!!!

「共感モデルは、できるだけ相手と長く会話を続けるのが目的である。会話の目的を意識して、戦略的に自分の返答を生成することを目指すことになる。これまでは、一度学習したものをベースに、脊髄反射のような反応していたが、過去のセッションの状況と、いまやってきた変動内容を加味して返事をするようにしている」

そんな難しいことが現状の自然言語処理技術でできるのか…ということで、実際に自分でもりんなと会話していろいろ試してみたところ、それほど前とは変わらないようにも感じる。。。

第6号にもあったGoogleのDuplexは、「予約に関する電話会話」に特化させて学習することであそこまで自然な応答を可能にしていますが、りんなのように「自然会話」を成立させるのは段違いに難しいですね…。そもそも我々が何を持って雑談を「自然」だと思っているのか、定義も難しいですし。

なお、共感獲得の末、嘘か真か既読スルーも覚えた模様。機械にも無視される人類。

⑤ 今週のドジっ子Alexaちゃん話

www.itmedia.co.jp

www.itmedia.co.jp

Alexaのオチャメ(?)な誤処理話について。 2つの記事はそれぞれ、

  1. 「アレクサ」という音を自分に向けたコマンドと誤認して処理をスタート -> 処理待ち状態のところに、意図していないアクションを指示したかのように処理されてしまった。
  2. オウムが話した言葉を人間からの指示として処理した という原因のようです。

1についてのアマゾン側見解は、

「Alexa」のように聞こえる音声で起動したEchoがその後の会話の中で「メッセージを送信」と命令されたと受け取ってしまい、その段階でAlexaは「誰に?」と尋ねたが、続いている会話の中からユーザーの連絡先リストにある人の名前を聞いてしまったと説明した。

「そんなことある?」って感じだし、2に関しては絶対オウムネタやる人出るやん…と思ってましたが、とにかく、スピーカーへの音声コマンドトリガーがまだまだ技術的にも運用的にも発展途上のために起こったようです。

明示的にコマンドのスタートワード(「ねえぐーぐる」や「あれくさ」)を教えてあげること自体がそもそも面倒であるものの、でもそれをしないと技術的には音声コマンドを受け取ることが難しい。それぞれを解決するには、

1 -> 会話の文脈を理解しないといけない。自分に向けた発話なのか、自分以外の人への発話なのか。 2 -> 命令を発しうる人(家族とか)の音声別識別ができないといけない。登録者以外の命令は受け付けない。

Alexaの目となるもの(室内画像のデータもインプットに追加するなど)があれば話はまた違うのでしょうが、音声だけでもそれぞれの技術的な課題の解決は時間の問題という気もするのでAlexaちゃんが賢くなる日を待ちましょう。(きっとすぐ追いついてくれるハズ)

⑥「Data engineers」「data scientists」、そして「MachineLearning Engineers」の棲み分け

medium.com

『「データサイエンティスト」と「データエンジニア」は仕事の領分も必要スキルも違うのでちゃんと分けて考えような』ってお話。海外記事の和訳記事。

「データサイエンティスト」と「データエンジニア」の区別はまだまだ道半ばな感じですが、でも実際どう違うの?ってことをいい感じに言語化してくれている記事です。良い記事なんですが、なんでタイトルが「vs.」ってなってるのかは謎。二項対立戦争はダメってエディター戦争のときに約束したでしょ!!!

データ分析とシステム構築はもちろん分けてやったほうが良いのですが、データ分析官ももはやシステム構築や処理に関する知識がないと分析用のデータを取り出すことすらできない場合もあるというのもまた事実。 自分の周りの分析官にも「最近なに勉強してますか」と聞くと「システム構築周りのこと」と答える人も少なくない感じです。そして勉強熱心な分析官は実際にシステム構築周りのことにも興味があるので、結局は「デキる分析官」がシステム構築にも携わっているなんてこともアルアルかもです。

⑦ またメルカリデータ分析チームの記事…悔しいけど欠かさず読んでる…

webtan.impress.co.jp

アナリティクスサミット2018で登壇されたメルカリの分析部のトークについてのまとめ記事。

メルカリの分析部は、この数ヶ月だけでもかなり積極的に情報公開・発信されていて、サービス規模に対して7人という少人数チームながら事業会社の分析チームとしてはすでに確固たるポジションを築いている気がします。 会社のデータを見る仕事なのでなかなか外部に向けて発信しにくいはずですが、「分析哲学」や「採用基準」などの話も混ぜ込んだり、さまざまなことがロジカルに整理され言語化されているので「ためになるなー」感がすごいです。

なんだかかっこよくて悔しいのであまりメルカリ関係の記事読みたくないのですが、TLに流れてくるたびに我慢できずに踏み、「ぐぬぬ」と思いながら読み、「良い記事だった…」と閉じることを繰り返しています。悔しい…!

メルカリ関係の直近の記事は、第1号,2号,3号,7号にもありますのでメルカリファンの方はどうぞ。

さらに余談ですが、メルカリさんはpodcastもやっていて、分析マネージャー樫田さんが話されている回(※2017年2月公開なのでちょっと古い)もあります。

⑧「あなたにとっての報酬はなにか?」がいつか機械学習でバレる時代がくる…?

news.mynavi.jp

これは面白いやつ。

逆強化学習によって線虫(C. elegans)における行動時系列データから、線虫の「報酬」が何かを推定したという京大の研究結果について。推定された報酬を用いて線虫行動をコンピュータでシミュレーションした結果でもモデルの妥当性が確認されたそうです。

強化学習と逆強化学習の違いは、

強化学習は、どの状況でどれくらい報酬を得られるのかはあらかじめ決められており、試行錯誤によって得られる報酬を最適化する行動戦略を見つけ出すことが目的とするもの。一方の逆強化学習では、動物はすでに最適な行動戦略を獲得しているとして、計測された行動時系列データから未知の報酬を推定することが目的になる。

研究の目的は、

線虫がどのような戦略にしたがって行動しているのかはこれまで謎だった。そこで同グループは、線虫を温度勾配においてトラッキングすることで、行動時系列データを取得し、逆強化学習法により、線虫にとって何が報酬となっているのかを推定した。

結果的には、良い感じに計算モデルによって線虫の行動戦略がバレてしまったようなんですが、さて、人間はどうなんでしょう…

我々は自由意志と理性によってさまざまな選択を行い、それぞれに個性を発揮して自由に生きているはずですが、いつかAI的なものが我々の膨大で詳細な行動ログなどを解析できる時代がくれば、実は全員が少数の特定の「報酬」を目指して生きていることが判明したら…。SF映画化待ったなし。

⑨ 虫でpose estimation

CNNによるfast animal(動きが早い動物)のpose estimation。論文ではハエとマウスでの結果例が紹介されている。

まだ中身は読めていないけど、線虫の話を読んでいたときにTLに流れてきたのでアイキャッチ負け(ジャケ買い的な意味)してリンクを踏んでしまったやつ。推定動画がなんかかわいい。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第7号】(2018.5.14~5.20)

f:id:ysdyt:20180430031726p:plain

① AI開発を受託会社に発注する際の心構え、「”AIガチャ”の回し方」がウケるw(が、ワロエナイ)

今週最も笑った記事。AI業界にいる人はニヤニヤすることでしょう。

note.mu

世の中の「AI受託開発会社」の技術ステータスや、実際に発注すると何が起こるのかの「あるある」話を面白おかしくまとめてくれてます。ただし、面白おかしいのは筆者による文才であって、内容自体は笑えないかも…

紹介されているのは、大手SIer/外資系企業/有名なAI開発会社/独立系SIer/フリーランス/クラウドソーシング/自称AIベンチャー の7種。内容は…まぁたしかに一般的に聞く評判だとーと感じました。世はまさにAI開発戦国時代。

最後のまとめ部分の1文は紛れもない真実ですので、AI開発を他者に発注する人は心に留めておきましょう。

少なくとも「ここに頼めば大丈夫」と保証できる会社(ガチャ)はありません。そもそもAI開発自体が成功を保証できないので、一定の損失は覚悟しましょう。

機械学習工学研究会のkickoffが超人気でスゴイ(語彙力)

上の話から微妙に続くのですが、 AI開発(機械学習で動く何か)がなぜ難しいかというと、AIシステム(と呼ばれている何か)は内部で状況(インプットされるデータ)ごとに異なる計算/答えを返す機械学習を行うので、従来のソフトウェア工学のアプローチによるシステム構築とは違う難しさがあるからです。それに立ち向かう研究会のkickoffが今週行われました。難しそうな研究会なのに500人規模の超満員だったようです。

sig-mlse.wixsite.com

登壇者の方のスライドも公開されています

mlxse.connpass.com

機械学習システムの難しさについては、久保さん有賀さんのスライドが詳しいです。

ツイッターハッシュタグでもこの分野のツラミを分かち合う話題などいろいろと盛り上がりをみせ…

初回ということもあり、イマイチどういった会なのかがわからないまま参加された方も多かったようです。 当日1番多かった質問は、「資料が配布されるかどうか」だったという風の噂も聞きました… これから賑わいを見せそうな集まりで期待です。

③『素晴らしい瞬間』を自動的に撮影するGoogleのカメラは膨大な人力作業で作られていた…

ai.googleblog.com

個人的にめちゃくちゃ関心の高いカメラの話です。 ”Google Clips”は胸元に付けられるほど小さなカメラで、「良い感じの瞬間」を自動で認識しショート動画を撮影してくれるカメラ。USでは$249で発売されている模様。 機械的に「良い感じの瞬間」をどうやって判断しているのかがもちろん気になるところですが、その技術詳細についてGoogle AI blogが出ていました。

箇条書きでざっくりと中身を書くと、

  • clipsの3つの重要な原則

    • 処理は全てエッジ(カメラ)で行っている
    • 魅力的な瞬間にビデオを撮影する(静止画は撮っていない)
    • 撮影対象は人物や動物であり、風景や景色などは対象となっていない
  • 「素晴らしい瞬間」の認識のためのデータセット作成

    • 1,000本以上の動画からランダムにショート動画を作成し、ランダムにペアを作る。
    • 「2つのショート動画のうち、どちらが好み?」という評価をプロの写真家やビデオ編集者につけてもらう。
    • 5千万組(!)のペア比較を実施し、動画にスコアを付与。
  • 学習

    • 動画に映る物体や動作の検知を行い、評価者が付けたスコアと相関が高い物体ラベルを絞り込む
      • 笑顔/ペット/ハグ/キス/ジャンプ/ダンス など一般的に好まれそうなラベルにはスコアに重みを付ける
    • スコアと物体の関係性を深層学習を使い計算能力の高いサーバーで学習
    • 実際の推論はエッジで行うため、MobileNet Image Content Model(ICM)という小さなモデルで上記のモデルの推論結果を模倣するモデルを作成。関連性の低いコンテンツを無視しながら、写真の最も興味深い要素を認識するようにする。
    • こうして、動画を見せるとそのスコアを推定するモデルを作成
  • その他いろいろ

    • バッテリーは3時間持つ。デバイスは常に起動しており、1秒間に1フレームをキャプチャする低電力モードでバッテリーの大半を費やす
    • 現在のフレームのスコアが、直近で撮影された動画によって設定されたしきい値を超えると、高出力モードに移行し15fpsでキャプチャする
    • 様々な性別や人種に偏ったデータセット・評価結果にならないように慎重にテストはしているが、機械学習の公平性は重要なポイントなので今後も検討していく
    • 結果として、単純に物体検出を行っているだけではなく、写真に対する「人間の好み」も反映した「素晴らしい瞬間」を撮影するアルゴリズムが出来たと思っている。

技術的な設計などはもちろんですが、ヤバイのは5千万の動画ペアに評価ラベルを付けたという件… googleパワーはこういった泥臭い作業も(金と外注の力を使っていても)完遂することろかと。

④ 人類と深層学習の戦争はすでに始まっている、最初の犠牲者はジロリアンか?

GANでラーメン二郎生成… 凄すぎないかコレ… でもジロリアンならGANよりも優秀なdiscriminatorとして見抜けるんだよね…?

⑤ 「データはユーザの声なき声」

今週は「Data Analyst Leaders Talk!」というイベントがあったようです(申込んだけど落ちた勢)

techplay.jp

DeNA、グリー、メルカリ、楽天の4社それぞれの分析チームのマネージャ・執行役員が、自社のデータ分析の活用と組織について、パネルトーク形式で切り込んでお話をします。

みたらわかる、これ絶対おもろいやつやん。

案の定、ツイッタを見ていると非常に好評だったそうで、さっそく幾つかブログも上がってました。中でも「データはユーザの声なき声」というのはまさにそうだなーと。分析でそういったインサイトを見つけられると超かっこいいですね。

余談ですが、ユーザーのインサイトといえば、誰でも無料でもらえる「離婚届」の用紙がメルカリでジャンジャン売れているらしいという話が最近面白いなーと思いまして、つまり、ユーザーの

「役所でご近所さんに見られるのマズイけど、手元に持っておきたいので600円くらいなら買うわ需要」

にハマったということらしいです。まさに声なき声。 メルカリで謎のアイテムが売れてるときは、ユーザー達の面白いインサイトが見つかる瞬間でもあるのでなんだか分析が楽しそうです。

⑥ 実は人間はもっと多くのものを「視ている」らしい。しかも無意識に。

shiropen.com

東北大学電気通信研究所の研究結果で、人間は自分の周囲360度の環境を学習し、脳内でモデルとして構築することで、直接見ることのできない頭の後ろ側の情報も無意識に処理していることがかわったという研究。

実施された実験は、被験者の周りを360度囲うように6枚のディスプレイを設置し、その6つのディスプレイ上に1つの標的(「T」)および35の引っ掛けの標的(「L」)が提示され、被験者は「T」だけを探し、発見までの時間を記録するというもの。

文字の配置が毎回新しいものに変わる「ランダム配置」と、12の配置パターンを繰り返す「繰り返し配置」を何百回も行い比較した結果、「繰り返し配置」の場合は「ランダム配置」と比較し、有意に発見時間が短かく、しかもそれが例え視覚の外にある背面のディスプレイにTが出現した場合でも当てることができ、発見時間も統計的有意に短かったそうです。(被験者は表示パターンが繰り返しかランダムかは知らされていない) これは、正面にあるものから、背後にあるターゲット位置を推測することができる能力といえ、しかもこのことに被験者は全く気付いていないことから、潜在学習によって周囲の環境を理解しているといえるらしい。

つまり、人間の視覚的知覚には視覚的入力以上のものがあり、身体や文脈情報の影響が示されていると論文には報告されています。人間はただ見えているものを認識したり学習しているだけではなく、自分の意識外でもパターン学習が行われているらしい、とのこと。

見えていないところも予想できる、というそんな超能力者みたいなことを無意識にしてるってこと?とも思うが、実際には、例えばサッカー選手などはフィールド全体のどこに味方や敵のプレーヤーがいるかということを把握しつつ、走ってボールを追ったりしていますが、常時360度を見ているわけではなく、見えていない背面で敵や味方がどう動いているかを(意識的にか無意識にか)想定しているはずです。意外に生活の中でも多用している人間のスキルなのかもしれません。 ちなみに、脳科学者的な興味は、人間が意識外で獲得したこういった情報は脳のどこに保存されてるのかということらしいです。

「人間は視覚から意識外の情報を取得している」という話は、このブログの第2号でも紹介した「人は相手の顔の血色の変化だけで感情を読み取れる」という話と同じような話なのかなと思い、かなり興味深いです。人間の認知はきっともっと広いんでしょうね。ワクワク。

⑦ 「未分類のゴミ」を貯める前にデータ分析官を雇おう(←それな!!!)

tjo.hatenablog.com

明確なルールや基準もなく無差別にデータを集めても「未分類のゴミの山」ができるだけで、きちんと目的と設計を立てられるデータサイエンティストが居て初めて、データを集める前から「可燃」「不燃」「資源」のようにゴミの中から使えそうなデータをより分けることができ、使いものになるものも見つけられるかもね、というお話。

アルゴリズムを考えたり分析することと同じように、「そもそもどういったデータをどういう形式でどれくらい集めるか」という判断は、分析官の中でもわりと経験がないと難しい。それなのに分析官不在の状況で、「とりあえずデータは貯めとこう」とすると返って、データ取得の手戻りを増やしたり無駄な前処理をする必要に迫られたりして良くない。データ活用をしたいなら、データ集めをする”前”に分析官を集めましょう(相談しましょう)という話。

⑧ 商品倉庫のピックアップロボットはAmazonだけじゃないぞ

gigazine.net

Amazonの出荷倉庫でロボットが商品をピックアップしている話は有名ですが、イギリスの大手オンライン小売業者「Ocado」でも可愛いロボットが働いているんだぜ、という話。個人的にはAmazonロボットよりもデザインがかわいくて好き。

25万個のマス中に商品が配置されており、数千台のロボットが秒速4mのスピードでマス上を動き回る。1秒間に300万回もの計算を行って最適かつ衝突の起こらない稼働を実現しているそうです。ロボット1台が運べる重量は10kg。充電が切れそうになると勝手にスタンドに入ってきて充電してまた仕事に戻る(かわいい)

こういう自動化はもっともっと進化してほしいですね。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第6号】(2018.5.7~5.13)

f:id:ysdyt:20180430031726p:plain

Googleの電話予約AIシステムDuplex、ついに本物のAIみたいなものがでてきよった…

gigazine.net

今週の一番の話題と言えばこれでしょう。Google I/O 2018のイベントで発表された「Goole Duplex」。Googleが数年かけて開発したという、「電話でのお店予約」という非常に限定したシチュエーションでのみ、ほとんど人間のように自然にやり取りをして予約を取り付けるAIシステムの話。

これまでごまんと、「AIで~~~できるようになった」みたいな話を聞いて、「それ、AIじゃなくて機械学習な」「AIじゃなくてただの深層学習な」ってツッコミを入れ続けていたけど、初めて「……なんやこれ…AIじゃん…」って思ってしまったやつ。

美容院とレストランに電話予約をしているデモが公開されたのだが、まだ聞いてない人はとにかくリンク先の音声を聞いて欲しい、凄すぎて笑ってしまうから。

合成音声には最近おなじみのWaveNetを利用しており、そのクオリティーは電話口の相手が機械だと事前に知らされていなければ気づくことができないレベル(というか、機械だと教えてもらってもそれでも信じられないレベル)。
「あー」とか「えーと」というような繋ぎの言葉を意図的に挟み込んだり、相手からの質問に即答せずに敢えて時間を置いたりする「人間らしさの演出」まで入れている。もしも対応できなくなるとシステム側が自動で判断して人間とバトンタッチする機能もあり。また、あまりにも人間と区別がつかないので、電話開始時にこれはAIが発話していますよと事前に告知する透明性確保も検討されているらしい。

公開されたデモで特にやばいのは2つめの音声。男性声のAIがレストラン側の女性店員に電話する例。
おそらく女性は英語ネイティブではないうえ、文法もやや適当な感じ。それにもかかわらず自然な受け答えをしている。
特に驚いたのは、AI側が5名の予約をお願いする発言に対して、女性店員が「4名以上は予約できないけど、来たら座れると思うよ」と少しトリッキーな返答をしたのに対して、「じゃあどれくらい待ちそう?」とAIが自然な返答をするところ。マジか。
特定タスクの音声限定で、おそらく最もうまく会話できた例をデモとして公開しているだろうとはいえ、このナチュラルさはヤバイ。これの”AIオレオレ詐欺システム”みたいなのが作られちゃったら日本は間違いなく滅ぶ。

I/OイベントではDuplexとは別に、メールの予想入力補助機能のもっとスゴイやつ、みたいなものも公開されたが、ここまでくると人間のコミュニケーションとはなんぞや、という気分になってくるのは自分だけだろうか。
Duplexにしても、電話口の人間が機械に手加減してもらってるみたいでかわいそうに感じてくるし、もういっそグーグルはお店側にも「予約を受け付ける音声AI」を無料でバラ撒いて、それをお店が使うことで機械同士でよしなに通信してくれるのが最善の世界なんだろうな。ヒトがAIの活動を邪魔している、という気さえしてくる…

ここでは「電話でのお店予約」という限定したタスクをうまく解くシステムの紹介だが、囲碁ゲームに特化したAlphaGOがすぐに汎化されて将棋やチェスに展開されたように、おそらく類似の会話タスクは瞬く間に解かれるのだろう。

Uber自動運転車死亡事故の続報。適合率/再現率のシビアな問題が明るみに。

gigazine.net

Uber自動運転車事故の続報記事で、自動運転システムは被害者が道を横断するのを検知していたが誤検知(false positive)とアルゴリズム側で判断し回避しなかったということが調査でわかったという話。

分類アルゴリズムの精度評価で、適合率と再現率(誤検知と見逃し)のどちらを取るかという話は必ず検討項目としてあがるのですが、特に自動運転や医療領域のような人の命に関わる領域の設計は非常に難しい。

Uberの件ではシステム判断問題として課題が残るものの、そもそもこういった死亡事故が起こった場合、責任は誰がとるのか、アルゴリズム設計者に瑕疵担保責任を問われたりしないかなど今後の法整備も気になるところです。

③サッカーよくわからんマンにもこれならなんとなくわかるぞ!サッカー試合状況の可視化

位置情報を追跡し、一番外側にいるメンバーを線で繋いでそれぞれのチームの領域を表示しているだけなのだが、見ていて非常に興味深いです。なんとなく両チームの領域が、守る場合は広く重なるように、攻める場合は相手のカバー領域外にメンバーを配置できると良さそうですが、プレー中の選手たちの脳内も実はこんな領域把握が行われているのでしょうか。ビジュアライゼーションとしては簡単なのに面白いなーと。

④画像認識技術をゲーム化させるセンスに嫉妬

japanese.engadget.com

画像認識能力を使った「絵文字版借り物競争」的なゲームをgoogleがリリース。TensorFlow.jsで動いているのでブラウザで起動する。URLにスマホからアクセスするだけでゲームをプレイできる。 https://emojiscavengerhunt.withgoogle.com/

画像認識性能が向上し、しかも技術者であれば比較的簡単に利用できるようになったことからも、「この機能で何か面白い画像系アプリとか作れないかな」と挑戦した技術者は山のようにいるだろう。 それでも、一般的な物体は検出できても、”植物の種類”のようなあまりにマニアックなものまでは識別できないこともあり、「何かできそうで、できない」という結論に達して開発を諦めた人もまた大勢いたはず。 そこをアイデアとUIUXの技術で子どもでも遊べてハマりそうなゲームを作ったところがさすが。

ちなみにこのゲームのUIUXには、シリコンバレーで活躍する日本人デザイナーの川島高さん(@kawashima_san)も参画されている。 http://www.takashikawashima.com/portfolio/

2018/4/23のTakramのpodcast「海外でデザインを仕事にする(後編)」でもお話されているので興味がある人は聞いてみると楽しいかも。

⑤PoseNetがブラウザーで駆動するところまでやってきたぞーーー!

shiropen.com

OpenPoseから始まった骨格推定の感動もついにコードゼロで動くまでやってきた。こちらも同じくTensorFlow.jsで動いている。

PCでこちらのURLを開いて、インカメラ使用を許可すると骨格推定が始まる。ヌルヌル動いててヤバイ。あまりにも簡単に、あまりにも正確に追跡されて笑ってしまう。「すべての人がAIを使えるように」というgoogleの思想を改めて実感した瞬間。

⑥葬式まであげたのに地獄から帰ってきやがったKinect

japanese.engadget.com

Kinectの生産終了が決定し、一部ではお葬式まであげられて別れを惜しまれたKinectが、しれっと第4世代として帰ってきた。我々の別れの言葉を返せと言いたい。

今度はAzureのもろもろと繋がり、センシングしたデータをより活用できそうな雰囲気が漂っている。スペックは以下。

1024 x 1024 解像度のToF式奥行きセンサ、4K RGBカメラ、日光下での性能を向上させるグローバルシャッター、360度マイクアレイなどを備え、さまざまな用途に使いやすい小型と低消費電力が特徴です。

小型化したKinectモジュールをDJIのドローンなどにも搭載するなどエッジコンピューターの領域でも頑張っていくらしい。 それにしても最近のMSの他社とのコラボレーションはイケてる感じがする。MSの好感度が上がっていく…

ところで、Google I/Oでは2次元画像からのPoseNetでの(つまりソフトウェア的な)骨格推定が話題となり、MSはハードウェアを使っての物理センシング(人間の骨格推定以外のこともきっとできるだろうが。)という戦略なので面白い。今後の両方向の動向に注目したい。

それにしても復活嬉しい。おかえりKinectちゃん。

⑦カメラ画像の明暗修正にも機械学習

gigazine.net

学習と教師データもお手軽に作れるし、シンプルなアイデアだけになるほどーと関心した。また1つ、ハードウェア側の補正を(完全ではないが)ソフトウェア側で補えるようになった。カメラもまだまだ進化する。

⑧ありそうで無かったデータサイエンティスト採用方法が強い

“イキリデータサイエンティスト”という言葉があるように(特にツイッターでよく見られる)、世の中のデータサイエンティストはなぜだか個性が強い人(オブラートに包んだ。)が多い印象で、入社したものの全く会社に合わないという人は少なからずいろんなところにいると思われるのです。 そこで!会社とマッチしなかったデータサイエンティストを対象に積極的に採用しますよという強気の採用広告。同時に世の中のデータサイエンティストニーズの高さも感じられます。

それにしても入社一ヶ月後というのはつまりまだ新卒研修とかしている会社がほとんどなわけで、そこで「この会社とは合わん!」と社員に思われてしまうほどダメな研修をしていると見限られてしまうということなのですね…会社側も研修も新卒だと思って適当にやってるとダメということね。。。

⑨AIがやってるのは「理論」的推論ではなく「直感」的推論?

togetter.com

Ponanza開発者の方のまとめツイート。 まとめツイートだけ読んでも「何のこっちゃ」と思っていたのだが、以下の方のツイートで何の話をしているのかわかった気が する。

「理論」と「直感」は対極にあるものではなくて、使うデータの量が違うだけの同じ線上にある手法、という考え方はおもしろい。そう考えると機械学習がやってるのは「直感」だという言い方もわかる気がしますね。

⑩最近、ブレインマシンインターフェースの話題が気になる…

neuralism.hatenablog.jp

最近自分の周りで何故かポツポツとブレインマシンインターフェース(BMI)の話題が増えていて、おすすめされた記事。 機械学習を用いた脳内認識活動の可視化など、最近話題になったネタの紹介や、脳の情報をインプット/アウトプットする方法などが簡単にまとめられている良記事です。

BMIの最終的に行き着く先が、各個人の脳を共有する地球規模のコネクトームだという、わりと良く聞く意外性のないオチなのでアレですが、近い将来我々の生活に入ってくる実用的なBMIなどんなものだろうかと夢が膨らむ。BMIなんてもっと未来の話だろうと思っていたのに、ソフトとハードの進化が最近異常に早いので意外に近くまできているのかもしれません…

余談ですが、文章中にイーロン・マスクBMIへの言及があるのですが、イーロン・マスクは「我々はシミュレーションの中で生きている」というシミュレーション仮説の支持者らしいです。ちょっと本題から外れるかもですがシミュレーション仮説についてわかりやすく説明されているこちらの記事もおすすめ。

⑪物理学業界からのKaggleへの殴り込み。物理出身クラスターのデータサイエンティストはやっぱり燃えるの?

jp.techcrunch.com

珍しい(?)物理と機械学習の話。世界最大規模の素粒子物理学の研究所であるCERNが、加速器実験から得られるデータをkaggleに提供しコンペを開いている。賞金はやや少ないものの、実際の加速器のデータを扱えるので物理クラスター勢にはアツい話題なのかもしれない。

体系的な教育が行われないまま必要性によって盛り上がったデータサイエンス領域は、多くの人材を物理学専攻の学生から得ている雰囲気がある。物理学を学んでいた学生は、理論的な考え方はもちろん、プログラミング、統計学、数学とデータサイエンスに必要なスキルセットと被りが多かったため、実際に現在活躍しているデータサイエンティストも物理畑出身の方が多い。CERNが出しているデータということもあって、意外に挑戦するデータサイエンティストは多いのかもしれない。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第5号】(2018.4.30~5.6)

f:id:ysdyt:20180430031726p:plain

ゾゾスーツ続報。3Dデータ表示がめっちゃかっこいいんだが!

mwwlog.com

さっそくゾゾスーツの使用感レビューブログが出てました。アツいサービスはブロガーが放っとかないのです。

センサーでピッと計測する前バージョンよりも、さすがに計測方法がめんどくさそうです(画像撮影時の注意事項がかなり多そう)。でもそもそも頻繁に撮影するものでもないのでok。 計測結果の3Dデータもめちゃくちゃかっこいいし、測定精度もミリ単位で表示されるようです。計測後はゾゾタウンアプリにデータがリンクされ、商品のサイズ選択時に「あなたのサイズはこれ!」と明示的に教えてくれるそう。もうこれ最高じゃないですか…。絶対自分サイズのシャツ買う。 マーカーを読み取る技術者も既にでてきたぞ。

AI活用で新たな政治スタイル目指す“ポリテック”の始動

this.kiji.is

小泉進次郎氏が新たな言葉を作って政治に浸透させようとしている。politics × technology。

もう少し詳しい内容も話されているニコニコ超会議でのトーク全編動画はこちら。

www.youtube.com

具体的にどういうことをするかということまでは(おそらく時間の都合上)詳しくは言及していないが、まず言葉を作ることが大切だと話している。

銀行業界でFintechという言葉ができたことで、銀行はIT化なりブロックチェーンなり、テクノロジー利用を進めなければいけない(もしくはテクノロジーが必要だ)という認識が広く広まった。 Fintechとは何なのか実際にはよくわからないものであっても「Fintechに取り組み、発展させる姿勢がある」ことを示さなければ会社として世の中に置いていかれるという意識にまで到達したのは記憶に新しい。それを同じようなテクノロジーの意識改革を政治界でポリテックという言葉を使って起こすことがひとまずの目的のようです。 テクノロジーで日本を動かそうとする若手政治家の筆頭として、小泉進次郎氏の発言や行動に注目したい。

機械学習は人間が近代までに平均化や最大公約数を得るために振るい落としてきたものを取り戻す武器

gigazine.net

機械学習とか深層学習なんて小難しいもの使わなくても、正しくビジネス問題の設定ができればSQLだけでも売上は増やせるんや」という話。

ここに書かれていることは正しいのだけど、機械学習が目指してるのは「顧客の上位◯%」「最終購買から◯日」みたいなマス向けのルールベースによるクラスタリングではなく、顧客ごとにコンシェルジュをつけるように、本当の意味でその人だけのオーダーメイドな施策を打てるようにすること。平均化や最大公約数からの脱却を目指すのが機械学習の目標。なのでちょっと話が違う。

(ちなみにタイトルは落合陽一氏がそんなようなことをどこかで言っていたのでその引用)

「おじさんの鏡だ」「こんなおじさんになりたい」。”ディープラーニングおじさん”に勇気をもらった人たちが続出。

karaage.hatenadiary.jp

機械学習に詳しくない(というかLinuxpythonも知らなかった)”おじさん”が半年ほどの独学で深層学習に習熟し、会社のAI事業の方針にも絡むまでになられたお話。「好きこそものの上手なれ、に年齢は関係ない」というのお手本のような話。

インターネットミームでは一般的には「〜〜おじさん」は「時代遅れの老害」を意味してディスる意味の使われ方をするため、それとは真逆の内容に感動した読者が続出。1000はてブ超え。年中ディスで溢れるはてな村に光が指した瞬間である。

そしてディープラーニングおじさんが賞賛を集める一方で、エアポートおじさんTOKIOおじさんたちがディスられるGW後半戦の始まり。おじさんたちの戦いはまだまだ続く…

FBがマッチングサービスを開始

www.afpbb.com

個人情報の取扱についてケンブリッジアナリティカ事件の話題も覚めやらぬ中、さらにソーシャル性を強みにしたサービスを打ち出してくるFacebookぐぅ強い。

米国で結婚するカップルの3組に1組がインターネット上で出会っており、フェイスブックのユーザー2億人が独身と自己申告していることにも言及した。

3組に1組がネットで出会う、ってほんまかいなと。日本のマッチングサービスと何が違うんだ…(それともただのメンタリティー?)

そして類似マッチングサービスの株が軒並み暴落したという…

kabumatome.doorblog.jp

個人的には、わりと真剣に少子化対策のためにも日本は国策としてでもネットでの出会いを推奨すべきだと思っている。
「最大幸福の組み合わせ問題」としてデータサイエンスももっと貢献できるはず。日本では”出会い系アプリ”というネガティブな印象の言葉が残ってしまっていて難しい部分もあると思うが、Pairsタップル誕生にもますます頑張って欲しい。

FacebookはすでにAIの倫理面について考え始めている

www.cnet.com

かつて画像識別問題において有名だった話だが、”女性の医師”の画像を見せると高確率で”看護師”だと誤判定するということがあった。

この原因は、世の中の医師は一般的に男性が多く、看護師には女性が多いというバイアスを、機械的には男性=医師, 女性=看護師と学習した結果。現実世界では性別・年代による格差や倫理問題は綺麗事抜きにたしかに存在するが、AIには正しくない倫理を学んでほしくない、少なくともFBが今後作るAIにはそういうことを求められている。

そのような課題に対し、FBはアルゴリズムが持つ潜在的な識別バイアスを測定するためのツール”Fairness Flow”を作ったよという話。

ケンブリッジアナリティカの件で、プライバシー情報にセンシティブに成らざるを得ないFBには今、こういった取り組みをアピールする必要性に駆られているのかもしれない。しかしそれは世の中にきっと役に立つことなので応援したい。

All We Need is arXiv

jp.techcrunch.com

Nature紙がなぜか今更有料の機械学習専門論文誌をやりますと言って、「ハゲタカビジネスだ」とボロクソに叩かれている話。

生物学の実験では、依然として専用の設備や機器、高価な試薬が必要な場面が多いので、追試などを誰もが行える環境でない限りは専門の機関(や研究者)が事前にレビューを行ったのちに世に出すプロセスは必要であり、意味がある。(そうしないと真偽不明の論文が大量に出回り逆に研究の足を引っ張ったりして困る)

しかし、機械学習分野においてはGoogleFacebookが行うような何千台も計算機を並列で走らせるような内容でない限り、自由に動かせるGPUが数台あるだけで多くの人が世界中で各自追試を行うことができる。この環境の違いは「論文の公開プロセス」を全く違う形態にするほど大きな違いがある。

Natureが権威をチラつかせて論文誌を立ち上げたなら、それはかなり時代を読めていないということになる…

Ng教授のオンライン書籍教材

qiita.com

かの有名なNg先生がオンライン書籍を執筆中だそうで、そのドラフト版(1-22章)がオンラインで公開中だそうです。

なんかあっさり書きましたが、そもそも販売する書籍を事前に(ドラフト版といえど)公開するスタイルっていつから普通のことになったんですかね…
ドラフトを公開することで、ユーザーはいち早く最新のエキサイティングな内容に触れるし、著者は内容や誤字、感想のフィードバックを貰える。そして公式公開までアジャイルに直していく…。人々の意識もかなり代わりましたね...スゴイ時代になったものです…

上の論文紙の話題とも一部通じますが、機械学習関連の論文や技術解説文書はもはや現在の一般的な出版スタイル・意識・スピード感と大きな乖離があります。
技術はすぐに陳腐化する。これは慣用句ではなく、早いと3ヶ月〜半年でも十分に”昔”の話になってしまう。

書籍レベルのまとまった情報でなくても、noteでサクッと最新の話題を書いて、1月ほどの賞味期限内(実際に期限なんて無いが、気分的にはそんな感じ)に買ってもらうという意識が何となくあるし、最近話題のマッハ新書のような、もはやちんたら200ページを文書を読むことなく箇条書きで超サックリと要点だけ話すような文書スタイルもじわじわと流行り始めている。

技術者の副業意識も高まりつつある背景もあり、この流れはまだまだ大きくなりそうな気がする。 話が逸れたが、機械学習分野の進歩の速さは当該の技術分野だけに留まらず、出版業界にも影響を与えているという話がしたかった。

FBのコンピュータービジョン精度向上は、ユーザーの思い出でをより鮮明に記録してくれる

thebridge.jp

タイトルが全てを要約してくれている。ちなみに原文はこちら

画像認識はすでに驚くような精度で詳細なジャンルまで識別できるようになっているがこの進化はまだまだ止まらない。

これ以上精緻に、精度良く識別できる必要があるのかしらと個人的には思ったりするが、FBにおいてはユーザーが投稿する画像に映るものが「白いスーツを着た男」ではなく「ピエロ」だというところまで認識できることによって、ユーザーの思い出をより鮮やかに記録することができるようになる。それは素晴らしいことだと思う。

2012年にFBがinstagramを10億ドルで買収したときには流石にこういったデータの使い方をするとは想定してなかっただろう。FBは良い買い物をしたんだなー。

ちなみに、インスタグラム画像への教師情報にはタグ情報を用いているそうで、それはそれでタグのノイズ問題がある(画像に映ってもないのにノリで関係無いいろんなタグを多量にくっつける人いますよねー)。
その問題には、弱い教師あり学習(Weakly supervised learning)なるもので対応させているらしく気になる。 現状で2万カテゴリの分類が可能になり、将来的にはこれを10万まで増やす予定だそうです。

2万円台のスタンドアローン型VRヘッドセットが本物のVR布教起爆剤となるか

japanese.engadget.com

おそらく今週のIT業界で最もインパクトがデカかったニュースではないだろうか。

「このブログの趣旨と関係ないじゃん」と言われそうだが、オンラインコニュニケーションの主戦場が遅かれ早かれ確実にVR/AR空間に移っていくなかで、AI的な技術は必ずその中心にいることになるので関係なくない(たぶん)。

今回のOculus Goは値段を安価にするためにも、モーションに関するセンシングは制限しているらしい。

上下左右を見渡す・見上げる・見下ろすことはできますが、しゃがんで下から見たり、頭や体を動かして避けるような動きには対応しません。

それでもなお、「安価で、取り回しの容易な」デバイスが圧倒的な”正義”であることには変わりない。 GWにすでにガチャガチャと触っているアーリーアダプターなエンジニアたちはOculus Goで怠惰にNetflixを楽しんだりしている。くそぅ、羨ましい…

VRと深層学習といえば、ICLR2018のbest paperに選ばれた論文「Spherical CNNs」がある。球形画像にCNNかけるという内容。

理論が先か、データが先か。でも二律背反は良くないよという話。

d.hatena.ne.jp

つまり推論の方法、「演繹法」と「帰納法」の話をしている。

経済学者は主には演繹法的な考え方、データサイエンティストは帰納法的な考えが中心にあるよね、という話。
演繹法と帰納法は、ざっくりいうと、物事を考える際に「理論(ルール)」が出発点になる考え方なのか、「現実(データ)」が出発点になる考え方なのかということ。

もちろん、演繹法を主とする経済学者が、考え方の違いによって二律背反的に帰納法を主とするデータサイエンティストをディスっているという話ではなく、経済学者は長い歴史の中で「統計も嘘をつく」事をよく知っているので、帰納法的なやり方に偏重した推論は危ないよ、データサイエンティストの人は気をつけてね、という感じ。
この手の話もわりと定期的に盛り上がっているような気がする。この話はちょうど次の記事の話にもリンクする。

Netflixは定性分析と定量分析をいい感じに行う。(でも「定量>定性」な気がする)

qiita.com

泣くデータサイエンティストも黙るNetflix様の分析事例紹介記事。誰もが知るコンテンツデータ分析の神様的企業である。

Netflixのデータ活用事例と言えば、レコメンデーションの精度がめちゃくちゃ良いという話が多く世に出ていますが、この記事ではレコメンド以外のデータに基づく施策判断事例・リテンション(ユーザーの契約継続率)を下げない/上げる施策が紹介されておりすごく興味深いです。(個人的には5つ星評価方法をやめた話が面白かった)

ただ単に、「圧倒的なデータ量を武器に定量的な分析を行ってリテンションを下げない/上げる施策を決めていますよ」という話ではなく、アンケートや個別のユーザーインタビューから収集する定性的な評価も大いに参考にしているという話もしています。あと、とんでも無い数のA/Bテストをやりまくっている感。

1つ上の記事の話も兼ねて考えるなら、演繹的な方法(Netflixの中の人達が正しいと考えている仮説やユーザーからのサービスに対する改善要望など)からの結果だけでなく、データからの帰納的な根拠も一致しないと本サービスとして実装しない、というような話。
ただし、記事を読んでいる感じでは、「ユーザーがYesと言っても、データがYesと言わなければやらない」「データがYesと言ってて、ユーザーもYesだったら納得感あるからやる」というような、どちらかといえば定性的な評価よりも定量的な評価に重きが置かれているようにも感じる。。。

「バランス良くいろいろな視点・手法で分析しようぜ、だってそれぞれのやり方には弱点があるのだから」、ということを以下の文章が説明してくれてます。

既存のデータを使った分析は今日起こっていることを理解するのにはいいですが、将来のことを理解することができません。クオリテイティブやアンケートの手法に関しては、カスタマーはインタビューやアンケートでは本当のことを言ってくれないということが分かっています。そして、A/Bテストに関しても、そもそもそうしたテストができないようなケースがたくさんあります。

と言いつつ、既存のデータを使って”将来ウケるコンテンツ”を作りまくっているNetflix先生でした。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。