WEEKLY人工無脳【第4号】(2018.4.23~4.29)

f:id:ysdyt:20180430031726p:plain

金属ガラス合成にも機械学習

gigazine.net

金属ガラス合成がどれほど難しいものかはわからないが、内容的には、無数の組み合わせが存在する中から現実的な材料の組み合わせを見つけさせる、というものらしい。

おそらく創薬分野の課題と似たような「膨大な組み合わせの中から特定の結合パターンを見つける」みたいな問題だと思うが、パターン認識こそ機械学習の得意分野。このような問題はいろんな業界に転がっているはずなのでこの数年はそういった簡単な問題が解かれる事例がまだまだでてくるはず。

NEC機械学習の特徴量抽出設計自動化技術で子会社設立。しかし新CEOのTシャツが気になって内容が入ってこない。

japan.zdnet.com

かなり立派な会見っぽいのに、この服装で参加したNEC(新会社CEO)の方のメンタルの強さが気になって記事の内容が頭に入ってこない。

「特徴量の自動抽出」という半信半疑な話だけれど、最近人気と噂のDataRobotが提供しているものと同じ方向性のものだと思われれる。

ただ、NECはこれまでもこの技術に関するリリースを継続的に出している。

NECは「異種混合学習技術」という手法によって、データサイエンティストが人手で行っていた高度な作業(データの関係性発見、特徴量の抽出・設計から分析モデル作成まで)を高精度に自動化する研究開発を2012年からずっと行っていたらしい。

NECの今回の技術やDataRobotのサービスが、この自動化分野の真打ちとなるかはわからないが、「特徴量の自動抽出」はいつかきっと達成される課題なので今後も注目したい。

ちなみにこの方が変なTシャツ着てるのは今回だけじゃないということもお伝えしておきます。

business.nikkeibp.co.jp

8K映像技術はきっと機械学習の良いパートナーになる

tech.nikkeibp.co.jp

好評開催中の「人体展」でも8K動画の展示がされていて、「人間の目の解像度的にそんな必要?」って思ったけど、超精細な患部の状況を知りたい医療系画像や、最近医療分野でもバリバリ活躍している機械学習用の画像データとして貴重っぽい。2K画像と8K画像の比較が結構衝撃的なので是非リンク先記事を見て欲しい。

8Kによって「精細によく見える」ことの恩恵は、単純にズームしても画質が粗くならないということだけではなく、”厚そう・薄そう・硬そう・柔らかそう”といった”質感“までが画像から予想できるようになること。人間に予想できるということはもちろん機械的にも識別が可能になるというわけで、「カメラが良くなる」ことの恩恵は計り知れない。

こういった最先端の道具の完備・ネットワーク化を目指した「次世代手術室SCOT(Smart Cyber Operating Theater: 通称スマート治療室)」というものも開発が進んでいる。今後ここに医療用AIが組み込まれることは間違いないので期待しかない。

詳細な学習用画像が深層学習アルゴリズムを進化させる話は先週号の「コンクリートヒビを自動検知するシステム」にも書いたので興味があればぜひ見てください。

新型ゾゾスーツに「違う、そうじゃない」が殺到。しかし技術者たちはにわかに賞賛している模様

ゴーリキーとのフライデーがすっぱ抜かれたもののナイスコメントで好感度をあげた前澤社長だが、新型ゾゾスーツは不評な模様。剛力にこのダサいスーツを着せられるのかと案の定イジられている

IT企業がハードウェアを無料でバラ撒いてでも生体情報を取得しようとする姿勢は、データアナリスト達的にはかなり胸熱な展開だったと思う。これこそ真のデータドリブン企業。かく言う自分も、ゾゾスーツ発表直後にソッコーで申し込んだ勢の一人。

今回のネタについていくつか記事を追ってみると、

センサー計測式のゾゾスーツを無料で配布します(かっこいい!) → 製造委託先ではもろもろで製造できず(40億損失) → 画像でマーカーを読み取る形式に変更して自社開発 → 7月までには予約者に届けるね

という流れらしい。そして当初の未来感がすごかったかっこいいスーツから、水玉ドットの新型スーツが出てきたのでみんながっかり…という。

どっちがコケてもいいように新旧スーツは裏で同時に開発を進めていたらしく、ハードウェアを作ることの難しさを感じられる。ちなみに画像でマーカーを読み取る形式は3億で買い取ったアイデアらしい。

たしかにかっこよさが失われ多少がっかりはしたが、コスト面と必要機能を考えると、わざわざ伸縮センサーのような高価なハードを使わなくても、マーカー形式でも精度良く体型測定できそうである。こちらの動画の最後の方に複数人の測定画像がでてくるが、パッと見でもそれぞれの体型の違いがわかるのでやっぱり問題なさそう。

今後は自分のサイズにあった服をオーダーする流れがきっとくるので、ゾゾスーツの人気は間違いなく高まる。そうしたら安価に製造できる新型スーツが良いことは自明。 でもそんなことはみんなわかってるんだ…みんなは「ゾゾスーツ届いた!」といってインスタに写真撮るチャンスを多少なりとも失ったことにがっかりしてるだけだから気にしないでね前澤社長。ゴーリキーとお幸せに…

ちなみに、ダサいダサいと言われる新型スーツだが、ComputerVision勢とスーツフェチズム勢からじわじわと好評の声が上がりだしている。冗談抜きで、技術者のお遊びとしてこのスーツからとれるデータでわりとデカいムーブメントくるぞ。zooは決して失敗していない。

教師なし学習の波が機械翻訳まできている

deeplearning.hatenablog.com

深層学習には膨大なデータが必要、ということは変わらないが、それが「教師あり」なのか「なし」なのかで更に労力は異なる。

労力がかからない教師なし学習で如何に教師あり学習の精度に追いつくか、というのが大きな流れの1つとしてあるが、こと「機械翻訳」のタスクにおいては当然翻訳の答えとなる教師データが必要と考えられていた。 それに対して、教師なし学習でもかなりの精度を出せるようになってきた論文についてくわしく解説してくれているありがたいブログ。(いつもお世話になっています!)ノイズ除去や”逆翻訳”というアイデアをうまく機能させるために「潜在表現空間を共有させる」という一見難しそうなアイデアをうまく説明してくれている。

「コレ考えた人、頭いいなー」と思える、膝を打つような体験に何度も出会えるのがこの進歩の早い分野の一番の魅力かもしれない。

Qiitaのタイトルに並んでいるだけで笑ってしまうからやめて

qiita.com

往年の「トリビアの泉」を見ているかのようなワクワクを感じながら読める。可視化一発芸として自分の中でランクインした。

ドコモの位置情報とDLでタクシーの需要予想

cloudplatform-jp.googleblog.com

ドコモの携帯ネットワークをつかった人口統計情報(つまり位置情報でしょ?)やその他もろもろの変数の合計120次元のデータをstacked denoising autoencoderに突っ込んで、500m四方エリア別の30分後のタクシー需要を95%程度の精度で予測するモデルをtensorflowで作った話。

需要予想モデルはエリアによってDLと自己回帰モデルを切り替えて使うらしい。すべてDLだけでやろうとしないところは正しいやり方だと思うし、実際に社会現象の予想モデルはきっと1つのモデルだけでは説明できないのだと思う。stacked denoising autoencoderを採用した理由はインプットデータのノイズを削減するのが精度を上げるためのキーだったからとのこと。

何はともあれ、社会が便利になるための技術活用は大歓迎。タクシーはともかく、電車の通勤ラッシュもなんとかならんものか…

このプロジェクトはNTTドコモ東京無線富士通によって行われたそうだが、NTTグループcorevoというAIブランドを独自に展開している。おそらく今回のタクシーの話はまた別なのだろうと思うが。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第3号】(2018.4.16~4.22)

f:id:ysdyt:20180430031726p:plain

「分析チームと機械学習チーム」は「内科医と外科医」の関係、になるほど。

mercan.mercari.com

世の中の企業が、「AI部署をつくらないと」「データ分析官を雇わないと」「でもどういったスキルセットの人を雇えばいんだ」と言ってる中で、やはりメルカリのデータ活用に関するノウハウや組織論は頭1つも2つも抜けている気がする。データ分析チーム(BIチーム)と機械学習チーム(MLチーム)を「内科医と外科医」と例えて両者の対象領域の違いを説明していてわかりやすい。

水樹奈々はビジネス書

PFN社長の西川さんが水樹奈々ファンであることは有名であるが、朝からビジネスマンを混乱させるのやめてあげてw

それでも水樹奈々はビジネス書と言い張るビジネスマナードットコムぐぅ強い。

機械学習に必須な数学知識はどれくらいか?」という新たな宗教戦争

yoheikikuta.github.io

機械学習を独学で学ぶ人が増えた昨今において、「数学勉強し直したいんですが、ミニマムで必要なのはどのあたりまで?」という議論は、EmacsVim戦争の裏で着々と新たな戦線を拡大している。数学原理主義派はいつも涼しい顔をして「詳しければ詳しいに越したことはないけど、これくらいわかってないと困るぞ」と言いながら難解な数学専門用語の話をしてくるが、迫害を受ける我々のような哀れな子羊はだいたい「とりあえずこの本でも読んどけばおk」というあたりで解散帰宅となっている気がする。

この新たな戦争に対して、我々は誰もが幸せになれるもっと素敵な回答を常に求めいている

Pandasの基本をサクッと学べる記事を書きました!

qiita.com

手前味噌ですが拙書記事です。データの前処理でよく使うPandas関数を手を動かしながら体系的に学べる記事を書きました。

自分が4年前に初めてPandasを学び始めた頃も、Pandasについてまとまった情報はこの本くらいしかなく、しかしこの本は分厚い・読みにくい・内容が古い、と初学者が参考にするにはなかなか適切ではない感じでした。なので@sinhrksさんのブログなどに非常にお世話になっていたのですが、2018年の今でも、最低限必要なPandasの使い方をサクッと学ぶための良いページがないなと思い作成しました。割とよくまとまっているのではと個人的にも思っているお気に入り記事です。お役に立てば幸いです。

音声データでもCNNは有効らしいぞ

blog.brainpad.co.jp

楽曲の特徴をメル周波数スペクトログラムとして可視化し、それを画像分類問題とみなして、楽曲のアーティスト分類や、類似アーティスト推定などを行っているブログ。おおむねF値で7,8割ほどの精度が得られている。

画像に限らず、時系列や自然言語、ここで紹介されている音声データなどの他種類のデータも、CNNで精度良く解ける例はいろいろとでてきている。パターン認識問題にさえ落とせればCNNが解いてくれるはず...という期待感が高まる。

深層学習で医師の作業をサポート。こういうのを待っていた!

research.googleblog.com

これは未来のデバイス…かっけぇ…

医師が操作する顕微鏡で見えている視野に対してリアルタイムでARのように情報を補足することで、医師の意思決定(ここではがん細胞の発見)をサポートするAR顕微鏡!がん細胞の特徴を学習済みのモデルでリアルタイムに推論を行っているらしく、その推論速度は1秒間に10フレーム。このスピードなら医師がサンプルを変えたり視野をズラしたりしても大きなストレスなく操作できそう。しかも一般的な顕微鏡にアドオンする形で機能追加できるらしい。Google様が開発。日本語記事はこちら。某IBMの某ワトソンみたいな小難しい”AI”サポートはいいから、こういう実用的でセンスのある機器で医師の業務をガンガン効率化・高精度化させてほしい。

メルカリ分析部に惚れる人が続出

seleck.cc

事業会社における分析部の仕事について、「分析資料作成の努力は意思決定者にとって重要ではない」「意思決定が変わらないなら分析する必要はない」「社員に愛されるダッシュボードを作るべし」「ゆるふわBI」「Query Recipe」などなど、多くの名言が飛び出すメルカリ分析部の良記事。分析部の仕事がいかに有用なものかが外部の人間でもひしひしと感じる。一見の価値あり。

リアル世界をデジタルアーカイブする活動はきっと未来で重宝されるはず

www.itmedia.co.jp

現実世界の文化遺産建造物がデジタルアーカイブされていくことには大賛成。単純な文化遺産保全の意味でも十二分に価値があると思うし、機械学習の文脈では、強化学習用のリアル空間のフィールドとしても良さそう。 それにしても、この活動をしている非営利団体CyArk(サイアーク?と読むのか?)のネーミングの中二感が良い。

機械学習基盤の運用についての議論はまだまだ続く...

yubessy.hatenablog.com

従来、「システム」というものは一度仕様が決まって運用が始まればその処理自体は変わること無く、数ヶ月(ものによれば何十年も)続けるものでした。ただ、システムの内部で機械学習の計算も入るようになると、システムの実行環境やリソース要件が頻繁に変更される可能性がでてきます。そんな機械学習基盤(MLOps)の運用課題はKubernetesのようなコンテナオーケストレーションによって解決しやすいかもね、ということを良い感じにテキスト化してまとめてきれている記事。

現状、機械学習基盤の構築はなかなか難しく、その理由は網羅的な知識を持っている人がほぼいないこと、機械学習を行いたい対象のサービス種がまちまちすぎて一概にベストプラクティスが言えない(無い)ことが大きそう。しかし機械学習を使わない大規模ウェブサービスはほぼ無くなると思われるので、この分野はこれから益々盛り上がるのだろう。

カオス理論は機械学習にとって「なにそれ美味しいの?」状態になるのか

gigazine.net

我々がカオスだと考えていることは所詮ヒト脳が処理できない次元だというだけで、膨大な次元数を物ともせずパターン認識できる機械学習にとってはたしかにカオスでも何でもない「解ける」問題なのかもしれない。機械学習が私達の知らない「世界の秘密」を教えてくれることに超期待。

受託分析の仕事のツラみがTLでプチ盛り上がりする

受託分析の仕事の肝はまさにこの一連のツイート通り。そして手が動く優秀な分析官は昇格してPMとなるも、仕事はお客さんとの期待値コントロールとスケジューリングばかりになり、「ワイは分析がしたいんや…」と言い残し事業会社の分析部に転職するところまでがお約束。

機械学習アルゴリズムの性能を引き出すために、改めてハードウェア企業に注目すべき

tech.nikkeibp.co.jp

コンクリート表面のひび割れを深層学習で自動検知する仕組みを総合建設会社の大林組富士フィルムが作成した話。その精度は幅0.05mm以上のひび割れを100%検出できるほどらしい。0.05mmのひび割れってマジか。

大林組の特殊な高性能カメラで撮影した精細な画像をデータとして学習しているのが肝だと思われる。 機械学習によってソフトウェア側で補正を掛けて綺麗な画層を撮影することは可能になったが、こういった機械学習用の学習データとして質の良い画像を得るには高度なハードウェア技術が重要であり、そういった意味で高い技術力をもったハードウェア企業の存在感は高まっていると感じる。日本企業にもこのあたりで頑張ってもらいたい。

エンジニアの新しいお小遣い稼ぎ。技術記事は有料noteに書く時代が来つつある?

note.mu

かの有名なUIUXデザイナーの深津さん(@fladdict)がジョインして改善が進められ、利用者が増えていると噂のブログサービス"note"なんですけど、"有料記事配信"はこれまでにもたくさんのブログサービスが挑んでは散っていく中、noteでは一定の売上や定着を見せているようです。中でもツイッターで深津さんが言及されているようにIT系技術記事は有料noteとも相性が良いようでポツポツと盛り上がりを見せているように見えます。

ちょうど技術書典が今週末にアキバで開催されていますが、わりとお安い値段で面白そうな本がTLに流れてくるので気になる...そういったものもnoteのような集金できるプラットフォームで公開され、お手軽に買えると個人的に嬉しいなと思ったり。今後の盛り上がりに期待。

note.mu

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第2号】(2018.4.9~4.15)

f:id:ysdyt:20180430031726p:plain

人は相手の顔の血色の変化だけで感情を読み取れるという衝撃

Facial color is an efficient mechanism to visually transmit emotion | PNAS

毎週聞いてるPodcastバイリンガルニュース」の#308(34分頃から)で紹介されていた面白い話。人は相手の顔の血色の変化だけで相手の感情を読み取れているという研究について。

人は怒ると鼻や頬の血色が変化しそれは年齢や人種を問わず同じパターンが見られる。研究チームは、18種類の感情で見られる血色の変化を無表情のヒトの顔写真に重ね、感情を推定させるテストを20人の被験者に対して行ったところ、それぞれの感情を幸せ・悲しみ・怒りの表情を約7割ほどの確率で当てることができた。(つまり、筋肉の動きが無くても、血色だけで感情が読み取れていた)。また、喜んでいる人の顔に怒りの血色を載せて感情をmixすると、被験者は「理由は不明だが違和感がある」ということまで気づいた。さらに、同じことを人工知能にさせると幸せ・悲しみ・怒りの表情を約9割の確率で当て、人間より高い精度を示した、という内容。

顔には他の部位には見られないほど皮膚の表面近くに血管が密集しているらしく、この話ともリンクしているのかもしれない。「おフェロメイク」のようなチーク濃いめの血色をよく見せるメイク方法も実はこういった心理に効いていたりするのならば非常に面白い。

人工知能(おそらく比較的単純な画像の分類問題を解く深層学習モデルだと思われる)がこういったタスクで人よりも高い精度を出すのもうなずける。というよりまさに機械が得意なタスクじゃん。今後に期待。

この研究結果が真実で、人間は実は無意識のうちに処理している情報が他にもまだまだあったりすると面白いなー

P.S こちらの先生の研究らしい 。この技術を活用してonline-emotionという企業も始めたそう。オハイオ大学のリリース記事はこちら

誰でもディープラーニング出来る時代に難しいのは「現状のビジネスにどうやってイイ感じにfitさせるのか。開発コスト分ペイするのか」問題

www.itmedia.co.jp

AIと言う名の画像分類とチャットbotを福岡のクリーニング店 店長が独学で作って活用しているよという話。

衣類を精度良く24クラス分類したり、ITリテラシーの低い店員にも使えるようにチャットbotのUIを工夫するなど独学で進めたものの、「で、これどうやって業務に活用しよう?」みたいな話。 AI開発上の問題となった点としてあげられている

(1)課題設定が明確でないと、自分の目的に合ったデータを使っての機械学習ができない (4)実際の業務オペレーションや費用対効果がどうなるか分からない

という点はまさに「深層学習モデルはひとまず誰でも動かせるようになったけど、で、これどう役に立つの?」アルアルで、データ分析の話をしていたはずなのに、気づいたらコンサルみたいな仕事しかしていない、みたいな感じになる。技術だけが異様に早く進化した結果として今現在、至る所で起こっている話だと思われる。

それにしても、キュウリの人といい、Google Japnaはこういう人みつけてくるのうまいな。AIで監視しているのだろうか。

深層学習を使った新しいアート手法が生まれそうで面白い

www.gizmodo.jp

最近、twitterなどでこういう系のアート(?)が流れてきて面白い。 原理が詳しく説明されていなくて謎なんですけど、おそらく特定対象物の画像(炎・花・海・人の顔など)だけを学習させたauto encoder系の何か?それをリアルタイムでpredictさせているのだろうか?そうだとしても思った以上にうまく描写されていて素敵。デジタルアート的な文脈で発展するだろうか。

実行パラメータの数字をファイル名にいれたりして学習結果を管理している人に朗報

jp.techcrunch.com

medium.com

実際に深層学習モデルを学習させている人はわかってくれると思うが、モデル精度を上げるために行うパラメータ調整はけっこうな組み合わせでパラメータ変更を行うので、学習に実行したパラメータとその学習結果を記録するのが非常に煩雑になり困る。ファイル名やディレクトリ名にパラメータ数を書き込む、みたいなことをする俺俺便利ツール君みたいなものを作っている人も少なくないかもしれない。たぶんCometMLはそういうことを解決してくれる。事業会社で最近流行りの深層学習基盤も、自動で再学習を行った場合にモデルファイルの管理などをどうするかという問題があると思うが、そういった点も何かしらうまいベストプラクティスを提供してくれるのかもしれないし、してくれないかもしれない。

六次の隔たり」の次元数はますます減っている

www.gizmodo.jp

先週も書いたCambridge Analyticaの続報。オーストラリアではたった53人のユーザーから31万人分のデータが流出していたという話。

問題のアプリをダウンロードしていなくても、繋がっている友人によってはデータが流失してしまう。「繋がる」ことにサービス最大の意味を持つFacebookだけに、なんとも恐ろしいことです

六次の隔たり」みたいな話を地で行っている。漏れたデータはもうどうにもならないが、この事件がどう収められるのかだけ、私 気になります。ザッカーバーグさんもずっと詰められててかわいそう。

"オープンコミュニケーション"を推進するアイデア

mercan.mercari.com

「slackサイコー!便利ー!yeeeeah!」って感じのメルカリさんのslack事例記事。内容的には「なにをいまさら...」感がすごいあるものの、めちゃくちゃシェアされている。

ただ、「オープンコミュニケーション文化を推進するためにDM率などを監視する」というようなアイデアは面白い。メールを脱した21世紀の人類のやり方だなーと感じる。slackが便利だということは多くの人が既に知っているが、slackが提供するメッセージやりとりの統計情報の価値を理解している人はまだ少なそう。

(ニッチだけど)身近なものを対象に深層学習使う話は心が踊るよね

qiita.com

道路のひび割れを物体検知でリアルタイム推定する話。東大の研究室らしく、arXiv論文も出てる。

VGG16ベースのSSDで精度良く予測ができているらしい。論文をちらっと読んでみると、車内に簡単にマウントしたスマフォで検出用の画像を取得するらしく、時速40kmで走行する車の前方10メートル先の画像を撮影して、その画像を1.5秒で推論し、ヒビの位置を返す。スマフォのような(超高精細ではない)お手軽なカメラを使うというのがよい。自動運転時の路面状態を判断するようなタスクで活躍するのだろうか。それにしても論文内容をQiitaにもまとめる時代なのかー。

2017年の慶応SFCの研究室公開イベントORFでも、機械学習系の研究室が「路面や道路標識の剥がれ」をSSDで検出している内容が発表されていた。データの収集は町中を走るゴミ収集車の車載カメラから提供してもらっていたという話だった気がする。アルゴリズムなどは無料で公開もされているから、こういった研究のキモはどうやって精度のよいデータを集めるか、分析設計をどうするか、アウトプットの具体的なイメージや実社会で実運用にも耐えうるか、みたいなところがポイントになるのだろうか。

深層学習で「カクテルパーティー効果」っぽい機能を再現

shiropen.com

人間が雑音の中から特定の音だけを拾える「カクテルパーティー効果」は、人間(動物?)が行うユニークな認知の一つだったが、機械も同じような機能が行えるようになったらしい。ただ、この手法は

本提案手法は、音声を分離するために入力ビデオの聴覚信号と視覚信号の両方からアプローチしています。人が話す声と口の動きは相関関係があるため、両者を捉えることで精度は向上します。

というかんじで、画像(口の動き)と音声の両方を使っているので、厳密には人間のカクテルパーティー効果ではないはず(人間は聴覚だけでそれが行える)でもそんなこまけーことはどうでもいい、人間と同じような機能をまた一つ獲得したのだから。

個人的には最近、音声系のネタが増えてきたように感じている。

医師の代わりに医療判断を行うAIが世界で初めて認可される。医療の流れが変わるぞ

www.theverge.com www.technologyreview.jp

医療系サービスでアメリカFDAの認可を受けるというのはかなりスゴイことで、googleセルゲイ・ブリンの奥さん(生物学者のアン・ウォイッキ氏)と他2名が起業した遺伝子解析サービス「23andMe」もその検査精度を理由にFDAからサービス中止勧告を受けたりしていた(2018年3月には公式に認可が降りたらしいが。)

AIによる医療診断サービスがそんな厳しい認可を突破した事例が一つでも出来たということは、今後もこういったAI医療がたくさん出て来ると予想される。医療に限っては決して「医師が不要になる」ということはないだろうが、こういったサービスが医師の負担軽減となり、医療業界全体の風向きが良い方向に成ることを期待している。画像認識系のタスクで解ける医療判断はまさに深層学習が得意な分野。記事でも精度9割と書かれていたので、医師の判断精度と比較しても十分実戦投入出来る精度になったということなのだろう。

今後AIによる医療診断システムをFDAが認可していくということも中の人がツイッターで発言しているそうなので次のニュースにも期待。

次世代の脳波計?スゲーっぽいけど、なんで顎なんだぜ?

jp.techcrunch.com

明言はされていないが、おそらく脳波計の一種だと思われるが、記事では顎の神経筋から信号を読むとしているので、脳波ではないのかもしれない。頭などに設置して脳波を測定するデバイスは、脳からの物理距離が離れるほどノイズが乗ってしまうので、わざわざ顎に計測部分を設置する理由が謎すぎる。

MITチームがつくっているということと、確度が92%ということなのでとんでも製品ではないと思われるが、見た目のインパクト含め謎が多い。

ちなみに、日本では、阪大発ベンチャーのPGVなどが軽量・低価格な脳波計デバイスを開発している。

当たり前のように機械学習APIwebサービスに使う時代。機械学習をセンス良く使えるか?

sakamoto2.hateblo.jp

GoogleCLOUD NATURAL LANGUAGE APIを使って、はてブホットエントリーのコメントを対象に感情分析して、感情ごとに記事を集約したキュレーションサービスを作った話。機械学習適応先を選択するセンスが良い。

行われている事自体は難しいことはないが、やはりこういったお手軽な機械学習APIは読者の関心が高いらしい。

半年ほど前に同APIが案件で利用できるかどうかいろいろ触ってみたときは、日本語に関して感情分析精度がかなり低かったので使用は見送ったが、ブログ中で試されている「チョコレートが好きすぎて死にそう」「チョコレート嫌いなので食べると死ぬ」は自信を持ってポジティブ・ネガティブを推定できるようになっているので良さそう。googleのことだからひっそりと精度を高めていっている可能性もある。

機械学習・深層学習を使ったwebサービスは一発芸感があるが、ビジネスにおいても機械学習をどのようにインパクトのある使い方が出来るかという設計やセンスは、それもまた「一発芸」的なところがあるのでバカにしてはいられない。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第1号】(2018.4.2~4.8)

f:id:ysdyt:20180430031726p:plain

なんだかんだ言って、やっぱりtensorflowだね

thebridge.jp

「tensorflowのライブラリーは汚すぎる」「やっぱりchainerだね」と自分の周りからも聞こえてくるものの、技術の世界では「開発スピード」と「ユーザーの多さ」は絶対正義として君臨する。tensorflow一興時代はまだまだ続く。JavaScriptでtensorflowする理由はちょっと良くわからない。

最近ブイブイ言わせているABEJAさん

www.cyberagent.co.jp

表題通り。先月のABEJAイベントSIX2018も大盛況で最近白金高輪にも引っ越され、そしてCyberとのコラボ。おそらく社員的にはまだ数十人という大きくない規模だと思われるが、外から見たときのイケてる人工知能企業官すごい。外への魅せ方考えている人は相当やり手な方なのだろう。

そりゃメルカリにデータサイエンティスト集まりますわこれは...

forbesjapan.com

メルカリ分析チームの話。

一般的にデータアナリストというと、何らかの分析依頼があって、それに対して情報を提供する仕事をイメージすることも多いでしょうが、個人的には自ら施策や事業の方向性を提案する方が重要かな、と思っています。

まさにそれなーと思うわけですが、この意識を常に持ちつつ、他部署の人間にもデータを見てもらうための文化を作りだすのがどれだけ難しいか。(殆どの人間は「自分は関係ない」と思ってデータ見るなんて面倒な作業はしない)

AlphaZeroの骨格アルゴリズムモンテカルロ木探索)を五目並べ用に実装

blog.brainpad.co.jp

AlphaGomokunarabeZero、爆誕の瞬間である。

AlphaGoZeroやAlphaZeroの骨格アルゴリズムとなる「Rolloutなしのモンテカルロ木探索」を解説し、同アルゴリズム五目並べ向けに実装したときの動きを解説した技術ブログ。(弊社ブログのステマです)

正直自分は読んでもチンプンカンプンなんだが、詳細に説明してくれているのだろうな感はたしかに感じるので意欲のある人はぜひ読んでみてください...

強化学習はビジネス応用が難しくまだ有名な事例はないものの(googleがデータセンターの電気使用量を大幅に削減したのはたしか強化学習だった気がするけど。)これからきっと至る所で使われるようになるアルゴリズムであろうからキャッチアップしなければなのだ...

FBからの大規模情報流出と不正利用。いつか起こるだろうと思われていたことがついに起こる。

ケンブリッジ・アナリティカ内部告発者インタビュー翻訳 | Blue Room

本国アメリカではかなり話題になっている事件。

データ活用による選挙コンサルを行うケンブリッジ・アナリティカという会社のデータサイエンティスト達によってfacebookから、27万人とその友達計5000万人(正確な人数はまだ確定していない)の個人情報をアプリ経由で回収し、それらを不正に利用してトランプ選挙戦などに活用したという事件。その作業を行ったデータサイエンティストが内部告発のインタビュー動画を公開した。

「会社ではなく、あなた個人として悪いことをしているという自覚があったか?」という質問に対し、「データとこの実験に集中してしまっていた」という返答にドキリとする。個人情報を触るデータアナリストは今一度見ておいた方が良い。「出来る事」と「やって良い事」には明確な差があるが、それを霞ませて背中を押してくる魅力と影響力とツールが簡単に手に入ってしまう時代がまさに今なのだから。

それにしてもインタビュー受けてるデータサイエンティスト、漫画のキャラクターかよってくらいキャラ立ってる。

※「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
※「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。
※ 「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
※ 「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

Maker Faire Tokyo 2017 に初出展して「MSゴシック絶対許さんマン」を展示しました!

睡眠時間をガリガリ削りながらもなんとか、「Maker Faire Tokyo 2017」に無事に出展してきました。

イベント前夜の終電1時間前に初めてきちんと意図通りの動作を行い、当日も開場10分前ギリギリまで動かなかったという常に綱渡り状態でこぎつけたわりには、たくさんの方にブースで足を止めていただき、そこそこ存在感のある展示になったのではとホクホクしています。

イカーフェア?

Maker Faire」はアメリカ発の世界中で開催されているDIYのイベントで、その中でも特に日本で開催される「Maker Faire Tokyo」は参加者数が世界最大となるモノ作りの一大イベントです。今年開催された「Maker Faire Tokyo 2017」で10年目の開催となるそうです。

一般のモノ作り愛好家(このムーブメントではそういった人を “Maker” と呼んでいる)の作品展示だけでなく、企業のワークショップコーナーや体験コーナーなどの参加型のコンテンツも多数あり、子供から大人まで一日だけでは回りきれないほどユニークで熱量の高い作品が所狭しと並んでいます。

今年は8月5日(土)、6日(日)に東京ビッグサイトにて開催され、出展者数も過去最大の約450組となりました。

個人的にもMaker Faire Tokyoには過去2年間一般参加者として参加していました。

「いつか自分も出展者として参加したいなー」とぼんやりと思っていたところ、去年のMaker Faireで “キュウリでディープラーニング” と出会ってしまい、「本業で機械学習している者としてこれは負けられない!!!」と奮起し、今年の参加を決意したという経緯です。

ただ、純粋に “キュウリでディープラーニング” は本当に心から感動して、ブログにもラブレターのごとく熱い思いを書いたところ、それが思わずバズってしまい、「他人のフンドシで一体何をしているのだろう」と改めて冷静になった時に悔しい思いが湧いてきて益々奮起したという経緯もあります(情緒不安定かよ)

何を展示したの?

我々のチームでは、”フォント”の違いをディープラーニングで見分けるロボットアーム、“MSゴシック絶対許さんマン” を展示しました。「なんかダサい」「仕事の文書っぽくて気分が下がる」と、何かと嫌われている “MSゴシック” のフォントを自動識別し、アームで拾い上げて床に捨てます。本業でデータ分析とか機械学習の業務を行っている別々の会社のメンバー4人で作成しました。「ナウい技術で超絶くだらないことをover killする」「”技術の無駄遣い感” を全面に押し出すこと」を目指しました!

「MSゴシック絶対許さんマン」がMSゴシックを識別して床に捨てている様子はこちらからも見れます。

www.youtube.com

どうやって動いてるの?

見た目はただのおどけたギャグ展示ですが、中身は真面目なことを地道に頑張っています。

この展示では「日本語フォントを識別する」というマニアックな分類を行うために、自分たちでフォントのデータセットを作成・TensorFlowで畳み込みニューラルネットワークを実装し、フォント特徴を学習しています。フォントのデータセットは、「フォントかるた」という一般販売されているジョークかるたをひたすらカメラで撮影してデータ化し作成しました。

今回のデモ展示では「MSゴシック」のみを識別しロボットアームにピックアップさせるようにしていましたが、学習したネットワーク自体は「フォントかるた」に収録されている48種類のフォントが識別出来るようになっています。

また、ロボットアームを動かすデモだけでなく、Grad-CAMという手法を用いることで、この学習ネットワークがフォントのどこを見て(どういった特徴量を重要視して)分類を行っているのかを可視化した説明展示も行いました。(Grad-CAMはメンバーの一人が一晩でChainerで実装しました。マジかよ。。。)

可視化手法Grad-CAMの詳細な説明については、こちらのブログ記事が詳しいです(弊社の技術ブログステマです)

ロボットアームが動いてカルタを選ぶ様子は小さな子どもにも大人気で、また深層学習の技術的な説明やフォント特徴の可視化結果は、深層学習に興味のある方・フォントを扱うデザイナー・出版業界の方にも非常に興味深く聞いていただけました。「このフォント識別、アプリとかにしたら儲かりますよ」とお声がけ頂いたりするなど。

自分たちの会社の “でーたさいえんてぃすと” な方々もたくさん(冷やかしに)来てくれました!

ちなみに自分はディープラーニングを”人工知能”と呼ぶことにはアンチ派なので、誰も気にしなかったとしても一度も”人工知能”とは口にしませんでした。褒めてほしい。

展示ブースの場所が良かったこともあり、休憩時間が取れないほど見学者対応に大忙し。東大の松尾研出身者の方やNVIDIAの社員さんも見学に来られたりして冷や汗をかくなど。

小学生くらいの小さな子たちもたくさん見に来てくれました。原理はわからずとも、このロボットアームが何をしているかはわかってくれてたみたいです。

幾つかのメディアや個人ブログでもゴシック許さんマンを紹介していただきました。

本国Maker Faireを運営している団体「Make:」の公式webメディアでも写真付きで紹介されました。「親に向かってなんだそのMSゴシックは」のネタTシャツの英訳が晒されるという羞恥プレイ付き。”Font joke meets deep learning” というフレーズがイカしてる。

ブースの説明対応で他の展示をみることがほとんどできませんでしたが、出展して本当に良かったです!3年越しの出展側参加だったこともあり超超超楽しかった!

theta360.com

本業でもデータ分析・機械学習的なことをしているので、普段はビジネスマンや、既に機械学習に十分詳しい学生の方に対して我々の仕事の事やディープラーニングとは、みたいな話をしますが、完全にこの分野の門外漢な一般人の方やチビッ子にこの展示は何なのかをひたすら説明するのはなかなか新鮮で楽しい体験でした。

見学者の方からのコメントで、(※なんちゃってディープラーニングも広義の”人工知能”とする場合)「人工知能ってなんだろうと思ってたけど、こうして動いているものを見ると実感が湧きますね」と言ってくださって、「そうかこれがディープラーニングとの初めての接点なのか」と思うと、ある人にとっての「これから社会を変えていくであろう技術(大げさ)との初めての遭遇の機会」を作り、そこに立ち会えた嬉しさみたいなものも感じられました。

こういう場は決してお金にはならないのかもしれませんが、話題の技術をジョークめかしたおもちゃに見せかけてたくさんの人に触れてもらうのはなかなか意義深い活動なのでは、と個人的には思ったり。

おまけ1

当日にMaker Faireの隣の会場でデザインフェスタというイベントが行われており、そこで 「フォントかるた(※われわれが勝手にデータセットとして使っているカルタ)」の製作者の方々が同じく出展されていました。

以前のエントリーでも書いたとおり既に面識はあったのですが、我々の展示をわざわざ見に来てくださいました。その記念撮影。みんな個性的なTシャツ着てる。ヤバイ。

ちなみに我々が着ているヘンテコなTシャツはこちらで購入できます。※自作ではない

機械学習」という技術を通じて予期せぬ業界の方々と繋がる時、この技術の汎用性の高さにいつも期待が募ります。もっともっと実用的な社会実装をあらゆる業界で進めて、人間がやらなくて良い仕事をガンガン減らして、みんながもっと楽に楽しく生きられる世の中になるように貢献していきたい。

おまけ2

昨年話題になったキュウリディープラーニングが、今年は順当にさらに進化してまた展示されていました。

昨年の展示内容の細かいスペックはこちらを参照。

昨年との差分として進化していた点は、

  • キュウリは一本づつ推論(等級振り分け)を行い、推論が終わったキュウリを機械的に落下させて箱に落とす → キュウリが傷つくので廃止
  • その代わり、「キュウリを一本づつ推論」から「(ほぼ)同時に複数本推論可能」に。
    • モニター上にキュウリを並べていくと、並べたキュウリがどんどん推論されていく。推論スピードが飛躍的に上がってるっぽい。1本あたりの推論が早いのでほぼ同時に複数本を計算しているように見える

昨年度のバージョンでは、作業者がコンベアに一本づつキュウリを置いていき、コンベアの流れる先でキュウリに対する推論(等級振り分け)が1本づつ行われ、それが終わったキュウリは機械的に等級に応じた箱に突き落とされるような仕様となっていたようです。実際に人手が必要となるのは一番最初にキュウリをコンベアに乗せてあげる工程のみのようでした。

対して今年の進化バージョンでは、人がキュウリをモニター上にざらざらと並べ(モニターの上部にカメラが設置されておりそれでキュウリを検知する)、並べた直後から推論が始まり、等級振り分けが終わったキュウリをまた人がそれぞれの箱に入れてあげるという仕様になっていました。

人が介する部分は増えたように見えますが、推論スピードが飛躍的に上がり、しかもリアルタイムにほぼ同時に複数本のキュウリを推論できるので、トータルとしては効率が向上し、時間短縮もされているように見えました。

推論を行っている計算リソースは去年と同じくラズパイ1台(畳み込み2回・全結合3回くらいの浅いNNなのでラズパイでも現実的な時間で推論が完了する)で、マシン全体の大きさも格段に小さくなっており、いよいよこれは売り物としてもアリなのではないかという雰囲気。秀逸だなぁ。エンジニアほんとかっこ良い。

ちなみに、Maker Faireの出展者だけが参加できる懇親会が1日目の閉会後にあり、そこでキュウリディープラーニングの作者の方をお見かけし、今回の出展のきっかけとなったことへの感謝とディープラーニングに関する熱い語らいをしたかったのだけど(完全にただのファン)、ここまできて人見知りが大爆発してしまい話かけることができなかった…それだけが後悔…orz

おまけ3

会社の広報部の方から、「会社の公式ブログにも書きません?」と声をかけていただいたので書くことになりました。このイベント参加にはロボットアームなどの会社備品を借りたりはしたものの、いちおう完全にプライベートな趣味としての参加だったので会社のブログに書くのも変な感じなんですが、会社の公式アカウントで「MSゴシック絶対殺すマン」という字面が出るのが面白かったので書きました。

で、このブログが会社アカウントから公開された日の夜の弊社会長のFacebook投稿。会長がマイクロソフト様に謝罪w

(2018.9.14追記)

「MSゴシック絶対許さんマン」についてGlobalEdge(2018年7月号)にインタビューしていただきました。http://www.jpower.co.jp/ge/ge54/pre54/7p.html

プログラミングを覚えて4年越しに当時一目惚れしたアプリを作った話

エンジニアが作るサプライズ

「今までにインターネットで見た記事で印象的だったものは何か」みたいな話をするときに、自分はいつも2013年に書かれたこの記事を話に出す。

エンジニアやデザイナーの方々が、同業の友人の結婚式二次会のサプライズプレゼントとして、Twilioという音声APIを使って「結婚おめでとう」の声を届けるアプリを作ったというお話。「祝電2.0」とも表現されていた。

特定の電話番号に電話をかけ、自動応答システムと同じ要領でお祝いのメッセージを最大60秒のうちに登録し、それが自動で保存されるという仕組み。ネットのあれこれに不慣れな人でも電話をかけるだけで参加できるところがメリット。

最初にこのブログを読んだときは、お祝いの『メッセージ』を『伝える』ではなく、お祝いの『声』を『届ける』という表現の仕方がすごく素敵だと思ったのを覚えている。

「手書きのメッセージ」は不変のものとしてこの先も残り続けるけど、「声」というのはその時のその瞬間にしか存在しない。その時に届けられた「優しい声」や「涙ぐむ声」というのは、場合によっては話した内容以上の意味を持っていることだってある。そんな「おめでとう」をサプライズプレゼントされたら自分なら絶対に泣くほど嬉しい。

結婚式というエモーショナルなイベントの味付けにgeekな要素を入れているところ、かといって無駄にgeek臭を漂わせたものではなく、むしろエモーショナルな演出をさらに引き立てるものとして作られているところが個人的には本当に好きな感じで、いつか自分もこういったものを作りたいなとずっと思っていた。心からエンジニアをかっこいいと思ったし、自分もそういうことができるようになりたいと強く思った。

2013年、つまり4年前の自分はプログラミングを生物学の研究の道具として真面目に覚え始めて1年ほどの時で、しかも当時メインで使っていたのがPerlだったりしたものだからwebアプリ作成からは遠い世界だった。

そこから4年経って、Perlとはお別れしPythonと新たな生活を始め、開発環境やツールなんかも初心者が簡単に使えるものが劇的に増えたおかげで「今ならなんだか作れそうな気がする」という気持ちになっていた。

はじめてのアプリ作り

「祝電2.0」は誰かの結婚式の時にやろうとずっと狙っていて、加えてメッセージ協力を頼みやすい共通の友達が多い友人がいいなぁと思っていたところ、ちょうどいいところに大学時代からの盟友が結婚するとか言い出したので彼をターゲットにすることにした。

彼とは学生時代にイベントを一緒に企画したりしていたので共通の友人にも困らなそうだったことも大きい。昔からの恩を返すちょうどよい機会でもあったのでもうこれはもういっちょ本気でやって絶対に泣かせたろかいと勝手に誓ったのだった。

その後、結婚式二次会にはちゃんと招待してもらえることが決まって、結婚式の1ヶ月半前からアプリ製作を始め、一ヶ月前から友人各位にお祝いの録音をお願いする旨のポストをSNSにバラまいたり個別に連絡したりし始めた。

新婦さんとは面識がなかったこともあり、新婦側友人からメッセージを集めるのはそれなりに大変だったが、新婦側友人の方で二次会の幹事役もされていた方に新郎には内緒で連絡をとり、たくさん協力していただいたのでなんとかなった。こっそりとゴニョゴニョするのは元々得意。

アプリ作成は技術的にはそこまで難しくないものの、アプリ内で流す音声案内用の音源を自分で録って自分で聞いてみると、オレオレ詐欺の誘導電話みたいに聞こえて残念な感じだったので、件の幹事さんに紹介してもらって、新郎新婦の共通の友人で、素敵な声の女性に当て直してもらった。おかげで一気に素敵な感じになって詐欺未遂として怒られる心配はなくなった。

デジタルとアナログの境界

そんなこんなで、二次会当日までに国内外の友人方、ドッキリのさらに「隠しドッキリ」としてお願いしていた新郎新婦の親族様含めた60名を超える方々からの「お祝いの声」をいただき、刻印を入れた結婚式っぽい色のiPod Shuffleに音源を詰め込み無事に新郎新婦にお渡しすることができた。当初の目標の倍のメッセージ数になっていたのは新郎新婦の人徳の賜物。たぶん全部聞くだけで1時間を越えるんだけど。

届いたメッセージの頭とお尻に入る「えー」とか「以上です」みたいな単語をトリミングする作業のために一通り音源をチェックしたのだけど、原稿を用意してお祝い声を伝える人・替え歌でお祝いする人・夫婦漫談みたいなことをする人がいて、色んな人がいろんな方法で思い思いに「おめでとう」を伝える様子には胸がいっぱいになった。

メッセージの途中に声を詰まらせる方もおられ、その度に作業を中断してもらい泣きしていたのはここだけの秘密。途中から完全に「新郎新婦の親戚のおじさん」みたいな気分になってた。最終的には、このサプライズを受け取った新郎新婦も泣いてくれたらしいので当初の目標が達成され個人的には非常に満足(悪い顔してる)。

不思議な感覚だけど、例えばこれが「手書きのメッセージを集めて冊子にする」「撮った動画を送ってもらってそれをムービーに編集する」だと、もっと作業的にやっつけていたかもしれない。

音声だけを聞いていると、「この人はどんな顔の人だろう」「普段はどういうことを新郎新婦と話す人なんだろう」「どんなシチュエーションで録っているのだろう」と、メッセージを吹き込んだ人への興味が湧いてきて、編集作業自体も楽しむことができた。二次会会場で実際にメッセージを録ってくれた人と挨拶をした時は、「あのメッセージを入れた人がこの人か!」と一人で別の楽しみ方をしていたのだった。

もともとモノ作りやイベントの運営側など、何かを積み上げて形を作っていく事が好きなんだけど、こういったデジタルとアナログが交じる領域みたいなことをこれからももっとやっていきたいなぁと思った。時期的にもいろいろ大変だったけど、ちょうどこのタイミングで昔から思い入れのあったプロダクトをお祝いのついでに作ることが出来て嬉しい。

あと単純に、色んな人が「すごく良いですねコレ!」と褒めてくれたのが嬉しかった(結婚式会場のプランナーさんも褒めてくれた)。自分の”好き”が誰かの”嬉しい”になるならこれほど幸せなことはない。

余談

「今までにインターネットでみた記事で印象的だったものは何か」の他の回答として、2016年4月に書かれた「長年の友人が突然婚約者になる話」というこれまたすごく好きなブログ記事があって、この記事きっかけで灰色ハイジさんというデザイナーの方を知って、ハイジさんの文章や選ぶ言葉が好きで、それ以来すっかりファンなんだけど、なんとこの記事のタイトルで出てくる「長年の友人」で「今の旦那さん」となられた方が、「祝電2.0」元ネタを作成されたエンジニアメンバーhmskさんだったという衝撃。まさか数年越しでこういう繋がり方をするとはという感じで、画面を2度見した。

(一方的に)大好きなご夫婦で、いつもLine blogの「妻の様子です」シリーズの写真とかみて和んでいる。全く面識の無い方々なのだけど、自分にとっては(勝手に)更に思い出深いプロダクトになったのだった。

改めて

結婚式が終わってからもう1ヶ月も経つのだけど改めて、H&Yさん ご結婚おめでとう。何年か経って倦怠期とかいうものに入ったりしたら、是非また聞き直して新婚の頃を思い出したりすれば良いと思うよ!

theta360.com