毎日がEveryday、日々 Day by Day

テック/ビジネス/キャンプ/カメラ/サウナ/Podcast/ガジェット など

LGの35インチウルトラワイド湾曲モニター35WN75C-Bレビュー

f:id:ysdyt:20211128162927p:plain

初めてのウルトラワイド湾曲モニターを購入したのでそのレビューです。

数年前に初めて湾曲モニターをネットで見かけたときは、宇宙船のコックピットから画面を眺めるような、圧倒的な存在感を醸していました。またお値段も非常に高かったため一部のマニアックな人向けの商品だと感じていましたが、最近は例によって一般人でも手が届く価格帯になってきた印象です。
動画編集やPCゲーマーが増えたこと、在宅環境に投資する人が増えたこともあり周囲にも利用する人がちらほら現れてきました。そして今回自分もその一人になりました。

なぜ買ったのか

メイン機をM1 MacBook Airにしたことが大きいです。噂通りM1 Airはとても良いマシンなのですが、最大とも言える欠点が外部モニターを1台しか接続できない点です。*1

これまで27インチ・24インチモニターの2台体制で作業していましたが、1枚しか使えないならこの際デカいモニター1枚にしようと思い、「そういえば今ならウルトラワイドモニターも安くなってるのか?」と調べました。

デュアルモニター環境に匹敵するサイズで、値段もそこそこで、画質も良い という条件でいろいろ探してみたところ、表題のLGの35インチ 35WN75C-Bが良さそうだったのこれに決めました。*2

特に欠点らしい欠点のない、コスパの良いウルトラワイドモニターだと思います。

(※以下の写真や動画ではM1ではなく旧MacBookProを使っているので2枚のディスプレイに投影できています。)

とんでもなくデカすぎるかもしれない...とちょっと心配もしましたが、やはり記載サイズ通りで、重さもそれほどでした。慎重に作業したら男性なら横着して担ぎながらネジ止めできるレベルの重さです。

良いところ

  • 35インチでデカい、デカいわりに相対的に他社商品より安い
  • 3440 x 1440 Pixelsで解像度もバッチリ
  • モニター背面にはUSB-A3.0ポートが2つ, tpye-Cが1つ(94W PD対応), DisplayPortが1つ, HDMIが2つ, オーディオジャック1つとモニターだけでも拡張性が高い
  • 高品質ではないがスピーカーも内蔵
  • フレッシュレート100Hz(ゲームやらない人にはあまり関係ないが)

なんと言っても良いところは、背面のtype-Cポートからディスプレイ投影と90W充電がケーブル一本で同時に出来る点。人によっては別途ハブなどで拡張しなくてもこれで完結できるお手軽さ。

あと、意外に「湾曲」してなかったですね。体感的にはほぼ平面です。楽しみの一つだったのでちょっと悔しい。
49インチなどのもっと大画面モニターでは湾曲してないと両端が見えにくくなるのかもしれませんが35インチ程度では平面であっても特に困らなそうです。

 

自分の利用用途としては、ウェブブラウジングやテキストタイピング、動画を見る以外には、VSCodeなどでのコーディング、LightLoomでの写真編集などをよく行いますが、全く色味や解像度(文字潰れなど)が気になることはありません。MacRetinaディスプレイと比較しても同じくらい綺麗だなーと感じます(世の中の98%の人の用途では自分と同じ感想になると思ってます)

 

肝心の広さはというと、デュアルモニター体制と比較しても遜色ない、むしろちょっと広い?という感じです。

実測値ではデュアルモニター体制のほうが長い(大きい)のですが、やはり2枚で分割されない分だけデッドスペースも少なく、シームレスに使える画面が広いほうが体感としても広く感じるのではと思います。ウィンドウを右半分・左半分に1つづつ置いても十分な広さがあります。

youtubeなどではやたらデカく見えていたんですが、普段からデュアルモニター使いの人はもしかすると35インチではそこまで感動するほどではないかもしれません。

総評

当初の目的であった画面サイズも十分デカイですし、画質も綺麗で満足して使っています。

ガジェットyoutuberたちは口を揃えて、「動画編集時にタイムラインが一望できて編集効率が上がる!」というのですが、一般人的にはマジどうでもいい。それでも横長画面ではブラウザ開いた横でパワポ作ったり、zoom開いた横でgoogle docにメモしたり、間違いなく便利は便利です。

欲を言うなら、予算が許すのであれば後述する49インチのものでも良かったなとは思いますが値段が3倍ほど違うので流石に諦めました。ウルトラワイド湾曲モニターデビューのお試し1台目としてはコスパ高いと思います。

おまけ1: ウルトラワイドモニターを買うときの注意点

  • 当然ですが、ウルトラワイドモニターは横幅が80センチ以上と広いため、小型の作業デスクではかなり窮屈さを感じそうです。
  • モニターアームを使わずスタンドでモニターを支える場合、スタンド周りも場所を取るので机の奥行きも最低60センチ以上は欲しいかもです。
  • モニターアームを使う場合、耐荷重も注意です。多くの人が使っているであろうamazon basicモニターアームの耐荷重はmax13.5kgらしいので、8.3kgである35WN75C-Bモニターはセーフですが、別のアームを使用されていたら要確認です。
  • 一般にウルトラワイドモニター(25インチ~40インチくらい)として販売されているものの中には、 解像度が「2560×1080」「3440×1440」の2種類が存在しているようですが、「2560×1080」は買わないほうが良いです。
    • 「モニタサイズの割に解像度が荒く、ドットがかなり目立つ」「解像度の粗さから、小さな文字などが表示潰れする」らしいです*3
    • 写真や映像などの仕事をされている方はやはり画質が気になるらしいので、4Kモニターを買うほうが良いみたいです*4
      • 4Kのウルトラワイドモニターはまだ非常に高価(20万近い)ですが、30インチほどのサイズでは5万円以下で手に入るようです*5
  • 49インチくらい大きくなると、逆に大きすぎて左端・右端が視角から外れてしまい、通知のポップアップに気づかない、ゲームの表示情報が見えなくなる、などで不便という声もあるようです*6

おまけ2: 他の候補だったモニター

次点で最も良かったもの。「頻繁に買い換えるものでもないし、いっそ奮発するか?」と検討したのが49インチのこちら。こちらのyoutubenoteを見てもめっちゃ良さそうなんですよね。背面にはUSB-Aが5個もあり拡張性も十分。ただしお高い。

 

amazon限定のファーウェイモニター。音に拘りがない&モニターアームを使うため逆にサウンドバーが邪魔だなと...。USB-Aの拡張ポートもついてないのが相対的にマイナスポイント。またUSB-Cでの給電は10WなのでPCには別途コンセント接続が必要な点が大きくマイナス。

 

49インチはデカすぎるが、45インチより大きいのが良いときの選択肢1。ただし49インチより値段が高いので却下。

 

49インチはデカすぎるが、45インチより大きいのが良いときの選択肢2。湾曲ではないものの、スペック問題なしで値段感もかなりお得。懸念はInnocnという聞いたことのないメーカーであり買うには人柱になる覚悟がいる点。

 

49インチはデカすぎるが、45インチより大きいのが良いときの選択肢3。ただし値段が20万超えなのでやっぱり却下*7

 

...という感じで、やっぱり品質・値段・サイズを総合すると35WN75C-Bになるのでした。

*1:もうちょっと調べてみるとDisplayLinkという方法で2枚以上映せるそうですがゴニョゴニョしないとダメそう

*2:複数のガジェットyoutuberが紹介していたのも参考になりました。こちらとかこちらとかこちらとか

*3:https://youtu.be/iCzzsmk0X6U

*4:https://www.youtube.com/watch?v=3lAGptBZt4s

*5:https://www.youtube.com/watch?v=Ia1PGmczVko

*6:https://www.youtube.com/watch?v=fAa_c3YBZv0

*7:https://www.youtube.com/watch?v=Gj2J0RpC-2E

Selenium + Heroku + LineAPIで、ふもとっぱらキャンプ場に空きが出たら通知する

f:id:ysdyt:20211008095839p:plain

selenium + heroku + Line APIで、ふもとっぱらキャンプ場予約サイトを10分毎にスクレイピングし、予約に空きがでたらLineに通知するというアプリ、を作った人がいるのでそれを動かすために試行錯誤した話のメモです。

これで予約戦争に勝つる...!

予約がとれない聖地

キャンパーの聖地とも言われるふもとっぱらキャンプ場は、3ヶ月先までのキャンプ宿泊予約を専用のwebサイトでネット予約できますが、あまりの人気のため公開されるやいなや3ヶ月先まで基本的に土曜日は常に予約が埋まっています。

fumotoppara.secure.force.com

この状況となる人気以外の原因の一つとして、予約を無視して行かなかったとしてもペナルティーがない(予約時にクレカを登録したりせず支払いは現地だから)というのもあります。「とりあえず予約だけしとくか」「いけなくなったけどわざわざキャンセルしなくてもいっか」が実際は通ってしまう運用になっている点です。 キャンプ場もこのあたりまで厳密に運営する元気は無いのでしかたないところです。

ということで予約画面とにらめっこするのは大変なので自動化しようとしたら、やはり先人がおられました。

上記のコードをありがたくforkし、自分の環境でも動くようにしたものがこちら。 github.com

動かすまでの確認作業の大まかな流れは以下です。

1. seleniumで正しくスクレイピングできるか確認(ローカル)
2. Line Message APIが正しく動くか確認(ローカル)
3. Herokuに移植して、heroku上でも正しく動くか確認(heroku)

このブログでは、folkしたコードを使って自分のherokuで動かすまでに手こずったところをメモとして残しておきます。

元ネタのブログでも詰まったところについて触れられていますが、主なハマりポイントは以下です。

- seleniumを動かす方法
 - google chromeとchrome driverの設定方法
- herokuの動かし方
 - herokuでのgoogle chromeとchrome driverの設定方法
 - LINEのtokenをどうやって設定するのか

おおよその解決策に対する参考になるブログ記事はネタ元のブログにも紹介されているのでそちらを先にざっと読むとわかりやすいです。ここではより細かいトラブルシューティングのメモとなります。

まずはseleniumをローカルで動かす

forkしてきたコードの処理内容を把握するためにまずローカルで動かしてみようとしました。

qiita.com

selenium公式がdocker imageを作ってくれていますが、最初は自分で環境作ってみたいなと思いminicondaの上に作ることにしました。

seleniumはブラウザの自動操作を行うものなので、実際にブラウザが必要になります。ここではgoogle chromeを使いました。現在使っているgoogle chomeのバージョンを確認すると、自分の環境では バージョン: 94.0.4606.71(Official Build)(x86_64)でした。(確認方法は google chromeの「︙」>「設定」>「Chromeについて」)

次に、seleniumからchromeを動かすために必要なchromedriverというものをpip installしておく必要があります。注意点として、chromedriverはgoogle chromeのバージョンに合ったものでないといけず、現状の自分のバージョンと見比べて指定しないといけません。ややこしいのは、google chromeと同じバージョンを指定するのではなく、以下のページを見て、一番数字が近い、低いバージョンを指定しないといけない点です。

ChromeDriver - WebDriver for Chrome - Downloads

ここでは、google chromeのバージョンが94.0.4606.71であったため、一番近くて低い94.0.4606.61.0を指定します。

pip install selenium
pip install chromedriver-binary==94.0.4606.61.0

実際に呼び出して使ってみます。試しに、googleにアクセスして「selenium」と検索する動作を行ってみます。上手く動けば、コードを実行するとgoogle chromeが勝手に立ち上がって指定の動作をするはずです(最初に見たときはちょっと感動)

import time
import chromedriver_binary 
from selenium import webdriver

driver = webdriver.Chrome()
driver.get('https://www.google.com/')
time.sleep(5)
search_box = driver.find_element_by_name("q")
search_box.send_keys('selenium')
search_box.submit()
time.sleep(5)
driver.quit()

chromedriverをダウンロードする必要があることと、どのバージョンをダウンロードしないといけないかがちょっとわかりにくいくらいです。

heroku スケジューラーの設定

今回のタスクは常時処理が走っている状態ではなく、定期的にスポットで処理が走ってくれたらokです。 herokuではその場合はスケジューラー機能を使えば実現できます。

設定方法は以下です。(無料枠内の使用であってもスケジューラー機能の使用にはクレカの登録が必要)

qiita.com

今回はスケジューラーの最小起動頻度である10minごとを指定し、動かしたいタスクとしてpython3 notification.pyを設定します。dynoサイズも小さい方であるStandard-1Xを選んでおけば良さそうです。

f:id:ysdyt:20211007233014p:plain

ここでは管理画面からGUIで設定しましたが、こちらに書いてあるとおりコマンドラインからも同様の設定ができるようです。

herokuの無料枠

Free dyno 時間 | Heroku Dev Center

クレカ認証を行うと毎月1000時間のFree Dynoを得られます。10分に一回コードを起動するタスクがどれくらいのdynoを消費するのか厳密にはわかりませんが、実際に以下コマンドで消費量を確認したところ微々たるものっぽいです。今回のようなアプリでは1%分消費できるかどうかという感じで完全に無料枠内に収まります。

$ heroku ps -a fumotoppara-yoyaku
Free dyno hours quota remaining this month: 996h 29m (99%)
Free dyno usage for this app: 2h 57m (0%)
For more information on dyno sleeping and how to upgrade, see:
https://devcenter.heroku.com/articles/dyno-sleeping

No dynos on ⬢ fumotoppara-yoyaku

herokuでのTokenの設定

TokenやAPI key, パスワードのように内緒にしておきたい情報の取り扱い方です。

herokuに関係なく、通常そういった情報が含まれるコードをgithubなどで管理したい場合は、以下のように隠しファイルに情報を入れておき、gitignoreでリモートにプッシュしないようにしておくなどの方法があります。

# .envファイルを作り、そこにLINE tokenを記載する
$ touch .env
$ echo LINE_TOKEN='xxxxx' >> .env
# dotenvモジュールでファイルから情報を抜き出す
import os
from dotenv import load_dotenv #pip install python-dotenv で入る

dotenv_path = os.path.join(os.path.dirname(__file__), '.env')
load_dotenv(dotenv_path)
LINE_TOKEN = os.environ.get("LINE_TOKEN")

herokuではgitと同じ方式でファイルを管理・pushすることでアプリをdeployしますが、同じ様にするとherokuからは .envファイルが見えなくなりtokenが取得できなくなります。

そこで、herokuで同じことをするためには、herokuの環境変数に登録することで実現します。方法は以下。

cream-kuchen.hatenablog.com

今回だとこんな感じです。(chromedriver側の話は後述)

f:id:ysdyt:20211008091852p:plain

これもGUIでも出来るしコマンドでもできます

$ heroku config:set LINE_TOKEN="hogefugapiyo"

登録された変数は heroku configコマンドで確認できます。

$ heroku config
=== fumotoppara-yoyaku Config Vars
LINE_TOKEN:  hogefugapiyo

herokuでのChromeとdriverの設定

今回もっともハマったところです。heroku上でgoogle chromeを操作してseleniumを動かしたい場合、herokuのSettingsでBuildpacksを指定しないといけません。

qiita.com

f:id:ysdyt:20211007233612p:plain

これもGUIでもできますしコマンドでもできます

$ heroku buildpacks:set https://github.com/heroku/heroku-buildpack-chromedriver.git -a fumotoppara-yoyaku
$ heroku buildpacks:set https://github.com/heroku/heroku-buildpack-google-chrome.git -a fumotoppara-yoyaku

設定後、git push heroku mainすると上記に登録したものが実際にダウンロードされてheroku上にbuild&deployされるため、設定後は空pushでもいいのでpushを忘れないように。

そしてさらに、多くの人がハマるのがおそらく次で、実際にここまで設定してherokuにpushしても、何らかの理由でpushがコケるという状態が発生しがちです。自分の場合は以下のようにunzipエラーを吐かれました。

remote: Archive:  /tmp/chromedriver.zip
remote:   End-of-central-directory signature not found.  Either this file is not
remote:   a zipfile, or it constitutes one disk of a multi-part archive.  In the
remote:   latter case the central directory and zipfile comment will be found on
remote:   the last disk(s) of this archive.
remote: unzip:  cannot find zipfile directory in one of /tmp/chromedriver.zip or
remote:         /tmp/chromedriver.zip.zip, and cannot find /tmp/chromedriver.zip.ZIP, period.
remote:  !     Push rejected, failed to compile chromedriver app.
remote: 
remote:  !     Push failed

理由の多くの場合は「Chromeとdriverのバージョンが一致していない」ことなどです。
これを一致させてpushしてもコケさせないようにするには、Config Varsに設定するCHROMEDRIVER_VERSIONのバージョン数を以下のように調べて指定する必要があります。

cream-kuchen.hatenablog.com

自分の環境での例です。まずbuildpackでダウンロードされたchromeのバージョンを確認。

$ heroku run google-chrome --version -a fumotoppara-yoyaku
Running google-chrome --version on ⬢ fumotoppara-yoyaku... up, run.4315 (Free)
Google Chrome 94.0.4606.71 unknown

94.0.4606.71に一番近くて低いchrome driverのバージョンをこちらで探すと、ChromeDriver 94.0.4606.61とわかったのでConfig Varsに登録する

f:id:ysdyt:20211008091852p:plain

コマンドラインで登録する場合は

$ heroku config:set -a fumotoppara-yoyaku CHROMEDRIVER_VERSION="94.0.4606.61"

これで再度git push heroku mainします。晴れてpushが成功するとActivity画面にBuild succeededのログが残ります。

f:id:ysdyt:20211003205908p:plain
pushに成功するとBuild succeededとなる(失敗するとBuild failed)

実際にダウンロード・ビルドされたchromedriverのバージョンを見てみると、たしかに指定したものになっていることがわかります。

$ heroku run chromedriver --version -a fumotoppara-yoyaku
Running chromedriver --version on ⬢ fumotoppara-yoyaku... up, run.4744 (Free)
ChromeDriver 94.0.4606.61 (418b78f5838ed0b1c69bb4e51ea0252171854915-refs/branch-heads/4606@{#1204})

正しく動いているかログを確認する

herokuへのpushが成功した後、ここでは10分に一度指定の.pyを叩くようにschedularに指定していたので、それが正しく動き続けるか確認します。 確認は$ heroku logs --tailコマンド。

Configuration and Config Vars | Heroku Dev Center

もしもdeployがコケていたり、何かしらコードにバグがあればここのエラー文を見るとなんとなくわかるはずです。
意図通り動いている自分の環境では、以下のようにログが出力されています。

2021-10-07T14:39:49.532222+00:00 app[api]: Starting process with command `python3 notification.py` by user scheduler@addons.heroku.com
2021-10-07T14:40:03.126384+00:00 heroku[scheduler.2676]: Starting process with command `python3 notification.py`
2021-10-07T14:40:03.722456+00:00 heroku[scheduler.2676]: State changed from starting to up
2021-10-07T14:40:04.234487+00:00 app[scheduler.2676]: /app/.heroku/python/lib/python3.9/site-packages/selenium/webdriver/firefox/firefox_profile.py:208: SyntaxWarning: "is" with a literal. Did you mean "=="?
2021-10-07T14:40:04.234504+00:00 app[scheduler.2676]: if setting is None or setting is '':
2021-10-07T14:40:15.204707+00:00 heroku[scheduler.2676]: Process exited with status 0
2021-10-07T14:40:15.293579+00:00 heroku[scheduler.2676]: State changed from up to complete

Starting process ~~~ から始まり、指示通り処理を終えられたら State changed from up to complete で終わる感じです。(途中にfirefoxブラウザに関するsyntax warningが出ていますが、動いているし気にしないことにする)

herokuでの動作確認

今回のアプリの場合、上記までで上手くdeployができれば、放っておくと10分に1度Lineにキャンプ場空きメッセージが届くようになるはずです。

ただ、10分待つのも面倒なので、すぐに指定の処理を動かして正しく動くかどうか確認したい場合は、以下のようにheroku run で実行が可能です。

$ heroku run python3 notification.py

ここまでやっても予約が取れねぇ

1週間ほど動かしてみたところ、土曜日の空き通知が10件ほど来ました。思ったよりはキャンセル申請をちゃんとする人がいるようです。しかし結果としてはことごとく予約を取れませんでした(なんでや)
通知がきてソッコーで予約ページを見にいってもすでに埋まっている(!)とか、入力している間に誰かが予約を完了してしまって取れなかった、などです。

herokuスケジューラーの最小起動頻度が10分に1回のため、通知が来てすぐに見に行ったとしても最大で10分間空き状態が存在していたことになるため、その間に取られるようです。(ここは運ゲーですね。)
逆にいうと空きが発生しても10以内でほぼ確実に埋まっているため、手動監視している人はよほどの強運が無いと偶然キャンセルを見つけて予約をゲットできる可能性はかなり低そうです。

たくさんの人がプログラムで監視してるとは思えないですが、それにしても埋まるのが早すぎる。。。スクレイピング勢が予約入力フォームも自動で打ち込ませてるのではと思う速さです。ふもとっぱらキャンプ場の予約、実はデジタル戦争なのか?

追記

その後、無事に予約ゲットできました!10分ですぐに埋まらず、なぜか20分たっても30分たっても予約が埋まりきらない土曜日も極たまにはあるようです。

WEEKLY人工無脳【第13号】(2018.7.2~7.8)

f:id:ysdyt:20180430031726p:plain

①AIをビジネスに使うのって、「ふわっとしたタスク」と戦い続ける作業だよね

blog.tinect.jp

整理されたタスクは高速で処理できる人は結構いるけど、ふわっとしたタスクを具体的なタスクに落とし込める人はあんまりいないよね、って話。筆者はデータサイエンス系の方ではないようですが、「AIでなんかできない?」という”King of ふわっとしたタスク”を投げられる業界の方々においては非常に既視感のある話です。わりと「うんうん、そうだよね」っていう普通の話ではあるのですが、このネタについてある程度言語化してくれているのと、物申したいPM業の方がたくさんいてバズった模様。

本文では結局、「具体的なタスクに落とし込めるようになるには、そういった経験をたくさんするしか無い」という救いのないまとめになっているのですが、これに対して別の方が書いたブログもおもしろいです。

teruyastar.hatenablog.com

普通のプロジェクトがダメになるのは「自分に与えられた仕事の範囲は絶対超えない」「本音は言わない」それをしては余計な問題になるし空気も悪くなる。 このプロジェクトはアマチュアじみた「使命」ではなくプロとしての「仕事」だから。 ゲーム会社も普通の会社も評価システムは全て「本音」を封じ「空気を読む」ほど評価が上がるようになっている。

「ふわっとしたタスクを具体的にする」という話からは少し脱線し、「炎上しないように的確なタスクをあぶり出して、解決するPMはどんな人か。その時の組織構造はどういうものか」というような話をしています。

ぶっちゃけ、分析ができて理解力も高くて手もよく動く人というのは新卒でも結構います。データアナリスト4年目5年目みたいな人が新卒と同じ仕事をしていると結構ヤバイのです。経験を積んできた人はPMとして稼働して、人間1人が達成できる仕事以上のことをチームを動かして5倍10倍と成果を出せないと組織もスケールしないのでヤバイ。それでも「分析力」と「PM力」の両方を高度に満たすのは難しくてデータサイエンス業界のPM不足問題は他業界よりも厳しい感じがします。ただでさえデータサインス自体も体系的に学ぶ方法があまりなく、その上さらに育成メソッドも確立しにくいPM業が重なる問題。どうなるんでしょうね。まぁみんながんばりましょう(適当)

②世界中に住所を付け直すビジネスがほとんど錬金術みたいなんだが

jp.techcrunch.com

世界中の場所を3文字の単語の組み合わせでマッピングするアイデア。この方法で3mメッシュという細かさで世界中の位置をピンポイントで指定できる。

1年ほど前にこのアイデアを見たときは、「確かに便利かもだけど何に使うんだこれw」って思ってたら、自動運転業界などから多額の投資が相次いているらしいです。なるほど…。
3mメッシュという超ピンポイントな位置表示が可能なのでAirbnbのホストは3語のアドレスを使ってゲストを分かりにくい入口に案内したりもできるらしい。なるほど…バカにしてすまんかった…そういう使い方は確かに便利だ…。

世界中に超詳細なユニークな住所をつけ直す、というだけのアイデア。誰もが思いつきそうで誰もやってこなかったビジネス。そしてほとんど錬金術みたいな資金集めしている感がすごい。

③日本にもキャッシュレス化のビッグウェーブがようやくきた!が、油断は禁物だ!!!

japanese.engadget.com

電子マネーやクレジットカード決済時に店側が負担する3〜5%の手数料が、日本のキャッシュレス化を阻んでいると言われており、その手数料がゼロとなれば、中小店舗のキャッシュレス化が一気に進むかもしれません。

Line Payが本気出してきた感。8月1日から3年間限定としているが、決済手数料ゼロでQRコード決済を開始。これで小さなお店でもキャッシュレス支払いできる。 そしてQRコード決済でポイントも付与というキャンペーン付き。いいねいいね!3年はユーザーの意識を変えるには十分な時間。

これに呼応してYahooも導入・入金・決済手数料ゼロの「ヤフースマホ決済」を10月に開始。殴り合いが始まった(いいぞもっとやれ)

japanese.engadget.com

一方、盛り上がっていたら国がこういうことも言い始めた。

getgadgets24.blog.jp

QRコード決済は余計なハードウェアがいらないところが良いところなのに、「標準化」とか言って無駄なハードウェアやめんどくさいルールとか絶対作らないでねって感じです。マイナンバーカードみたいなことになったらマジ許さん。

さらに一方QRコード決済大国 中国では、

googleのスマートリプライ機能は退職願いもスマートに出してくれる

一体どういう学習をしたら&会話してたらこのサジェストが出てくるのかが気になるw このツイートへのリプに「辛い時、押してしまいそうだ。」とか書かれててウケる。ベンリダナー。

⑤IT化進めたら売上が下がったでござるという話

https://twitter.com/k_room/status/1015158019271712774?s=12

個人的には目から鱗だった話。鳥貴族が価格値上げによる売上減少を理由に売上予想を下方修正、それに対して「接客をタッチパネルにしたからや」という指摘。

ある時から近所の鳥貴族も注文をタッチパネルで受け付けるようにしており、「便利になった〜」「外国人店員さん多いから最悪日本語話せなくても良くなったね〜」「データも取れるし〜」と、みんなきっともっとカジュアルに注文するようになったもんだと思ったら、実は飲みながらタッチパネルで合計金額が確認できたら切りの良いところで注文を思いとどまり、結果客単価が下がってるんだという指摘。

IRにはそういった言及が無いようなのでこれはツイート主の意見ではあるが、さもありなんという気もする。価格値上げといっても280円が298円になっただけだし、確かに他の原因と考えたほうが妥当そうな気がする。

もろもろの効率化やデータ取得のためにこういったデバイスを導入する場面は飲食店以外にもたくさんある。カジュアルにIT化を進めるとこういうこともあるのかと目から鱗でした。

⑥カメラは隠すべき?隠すほうが気持ち悪くない?

https://www3.nhk.or.jp/news/html/20180704/k10011507411000.htmlwww3.nhk.or.jp

東京オリンピックまでに首都圏の在来線のすべての列車に防犯カメラを設置することが決まったという話。

カメラは蛍光灯と一体となったタイプで、1両に8か所設置。録画した映像は1週間程度で上書きという仕様。プライバシーへの配慮とかなんとかでこれまで導入しなかったのだろうけど、やっと導入かという気持ち。 痴漢行為への抑止力としても、カメラがどの方向を向いているのかわからないようにするのは意味があるので良いと思うのです。ただ、こちらのニュースは意味がわからない。

http://news.tbs.co.jp/newseye/tbs_newseye3411986.htmnews.tbs.co.jp

リンク先の画像を見てもらうとわかるのですが、自販機商品サンプルの小さな穴からカメラが覗く構造にしていて完全に隠し撮り状態…。防犯への抑止が主目的なら「動画!!!ばっちり撮ってるぜ!!!」とうるさいくらいアピールするカメラを堂々と設置すればいいと思うんですがどうなんでしょう。気持ち悪い感…。

機械学習を行う防犯カメラなどもこれからきっと増えていくと思うのですが、こういったカメラ設置に対する考え方も一緒にアップグレードされていってほしいところです。隠し撮り、ダメ、絶対。

ブロックチェーンのゆりかごはアート領域?

jp.techcrunch.com

ブロックチェーン活用事例の話は出ては消えを繰り返しているのですが、今回はアートの売買をブロックチェーンで管理し、転売されるごとにアーティストへ還元金が再分配される仕組みを作ったベンチャーの話。

流動性があり取引が追いにくい商材として「アート作品」というのは確かにブロックチェーンで管理するには良いターゲットなのかもしれない。アート作品が他の商材と違うユニークな特性として、「新品が最も値段が安い」というのも面白い。所持者や購入金額もアートの価値に大きく影響するものだからこそ、売買ルートをクリアに管理するという発想は自然な気がする。

ここでは「アート作品」に対してブロックチェーンを利用する話ですが、@tokorotenさんがマッハ新書で出されている個人ICO 3.0にはアート作品を作る人自体にもブロックチェーン技術(Initial Coin Offering)を適当しようという話も登場し、非常に面白い考え方なので興味ある人はぜひ買って読んでみてください(オススメ!)

⑧データで服を作るzozo、服制作も全自動化を目指す

www.itmedia.co.jp

zozoスーツで集めたデータを組み合わせて、ほぼ無人で1着40分でニットを自動製造機するプロセスも開発したという話。

ZOZOのプライベートブランドのニット製品は「ホールガーメントとZOZOSUITで計測した体形データを掛け合わせ、1着当たり40分で作成する」

ファッションに疎い人向けの神教科書服を着るならこんなふうにによると、「自分の体格にあったサイズの服をきているだけでちゃんとしてみる」ということなので、zozoスーツ採寸で作られるぴったりサイズの服を手軽に買えるようになることには期待しかない。今後オーダーメードスーツも同じく販売を開始するとのこと。体型データをフルに使って業界をぶっ壊して欲しい。

そして、製品の価値や体験を高めることと同時に、製造自体も自動化するところまで着手していてカッコイイ。これぞデータ活用の真骨頂という感じ。市場的にもめちゃくちゃインパクトがあったようで、従来のスーツ業界各社の株価は暴落した模様。こんなにわかりやすくデータビジネスが旧業界をdisruptしているのはもしかして初めてなのでは?

⑨価値観を問い直すサービスは流行る。たとえそれが命であっても。

globe.asahi.com

最後は個人的興味のあるバイオ系の話。遺伝子が関することは軒並みデータサイエンスの範疇だと思ってます。遺伝子データビジネス、すごいキテますよ!

中国のペットクローンビジネスが盛り上がっているという話。世界中の富裕層から超高額でも依頼が増えている。

クローンペットビジネスは実は2008年からすでに始まっていて、一匹約1100万円(!)という破格の値段でも世界中から依頼がくるらしい。主には「死んだ愛犬を生き返らせたい」という希望から依頼がくる。 遺伝子的にクローン(ハードウェアはオリジナルに等しい)でも、魂は別物。それでも人間が愛犬を蘇らせたいと依頼するのは、死んだ魂がまたその新しい体にも宿るかもしれないと期待しているからなのかもしれない。現在のクローンビジネスの大きなニーズは、優秀なハードウェア(生体)の大量生産ではなく、もはや人間の認知と哲学の世界にその価値がある。

昔、「どんなサービスが流行るか」という話を知り合いとして印象に残っているのは、 『AmazonFacebookが流行ったのは、単に便利とかビジネスに役立つからというだけではなく、「モノを売るためには丁寧な接客なんか必要ではなく、大量の購入者のレビューと便利な配送があれば良い」「承認欲求が人の繋がりを大きくする」みたいな、従来の価値観や哲学に大きく影響を与えるような問いかけをするサービスだったから』と話していた。

クローンビジネスの倫理的な正しさはまだまだ議論すべきだが、クローンビジネスが本質的には「姿か魂か記憶か、人間は命の何に価値を見出しているのか」を問いかけるビジネスである以上、必ず大きなニーズがあって、正しいか正しくないかの前に流行るものだと思う。この問いかけへの選択が見たいという気持ちからクローンビジネスの今後にはすごく興味があります。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第12号】(2018.6.18~6.24)

f:id:ysdyt:20180430031726p:plain

①「空の目」として暴力行為を検知するAIドローン

karapaia.com

ドローン視点からの空撮動画で人を撮影し、「暴力行為」を行っている人間を検知するシステム。

群衆の中から暴力行為が特定されれば、サッカー場フーリガン対策に有効かもしれない。

とか書いてますが兵器臭がすごい。

この群衆監視システムが検知できるのは「首を締める」「殴る」「蹴る」「撃つ」「刺す」などの暴力行為で、被撮影者の人間の姿勢推定情報を元に判断するようです。学習データには暴力行為の「演技」をした動画を使ったそうなので検知精度にもまだ難ありで、対象人数が増えると検知精度が下がったり、「ハイタッチ」を暴力行為として検知したりするそう。

人間の行動すべてを精査に分類することは難しそうですが、「暴力行為」のように目的を限定して機械検知を行うことはこれからまだまだ増えそう。第9回にも「万引き前の行為」を検知するカメラシステムの話がありましたが、次は人間のどんな行動を検知してくれるのか楽しみ。

FacebookからPose系の最新作がオープンソースとして公開

shiropen.com

毎回デモ動画がかっこよすぎるPose系のやつ。FBから”DensePose”が公開されたそうです。リアルタイムの推定動画が完全にSFのワンシーン。 これまでの体の姿勢情報(ボーン情報)から更に進化し、ピクセルレベルで人体位置が取れるそうです。「腕は腕でも、腕のどこか」ということまでわかっちゃう。そしてこれがオープンソース。すげーなー。

DensePoseのライセンスはAttribution-NonCommercial 4.0 Internationalなので商用利用は禁止です。お気をつけを。

③アマゾンはAIから仕事を奪われてるのではなくAIと「協業」を始めている

www.itmedia.co.jp

未だ勢いを失わないAmazon様、本業のECサイトは在庫管理もレコメンドもなんなら商品のピックアップまでアルゴリズムやロボットに任せて、手が空いた人間は新しいビジネスモデル作成(Prime AirWhole Foods Market関連)をやっていて、まさにAI時代の働き方をし始めてるという話。

タイトルは「仕事を奪う」という言葉を使ってますが、全然反対で、単純作業は機械に任せて人間は意思決定の伴うクリエイティブな仕事をするという、これこそまさにAI社会で実現したい人間もラクで楽しく働くためのスタイルではと思ってます。そろそろ「奪われる」という言葉を使うのを止めませんかという感じ。

④携帯電話ネットワークによる動態人口予想

headlines.yahoo.co.jp

スマホの電波が今どのアンテナ基地局とつながっているかという携帯電話ネットワークの情報を元に、個人を特定できない形で250~500メートル四方の人の分布を推計して人の動きを予想する実験の話。実験を実施するという話で、結果などはこれから。 ドコモ回線だけで7千万回線以上あるそうなので、全キャリアで実験せずとも十分に動態推定はできそうです。

都内などであれば人の位置情報はかなり正確にこのネットワークで把握できるはずで、こういった情報を生かしてどんどん便利なサービスを作ったり街のデザインに生かしてほしい。災害時などにもきっと役に立つはず。

⑤こういうの出始めたら終わりだと思ってたらもう終わっていたという話

www.nikkan-gendai.com

札幌市の業務用ソフト会社が従業員の「笑顔度」によって出勤登録を行うシステムを開発し話題となっているというネタ。 圧倒的な闇を感じるやつ。

社員の顔画像分析を行い「笑顔度」を算出。それが一定値以上じゃないと出勤登録できないらしいです。

導入した理由は

「弊社の出退勤管理システムを利用しているサービス業とやりとりする中で、『やはり従業員は笑顔が重要だな』と感じたのが、開発のきっかけです。

それでなんで出勤登録のときに笑わないといけないの?というのは多くの人の感想でいろんなツッコミがあったらしいです。それに対して開発会社の社長は

 厳しい意見にイー・カムトゥルーの上田正巳代表はこう説明した。「(ネットの意見については)なるほどという感じです。ただサービス業ではやはり笑顔が必要ですよね。数値は自由に設定できるので、会社の運用次第だと思います」

おう、、、

⑥アイドル顔生成最新作がもはや実在アイドルの宣材写真レベルでビビる

gigazine.net

アイドル顔生成といえば、すぎゃーんさんですが、すぎゃーんさんではない京都の会社が作ったGANによるアイドル顔生成。 すぎゃーんさんも褒めてますね。

百聞は一見にしかず、ということでこちらを見てください。生成が綺麗すぎて「??」ってなる。人の顔生成もここまできてたのか。

www.youtube.com

学習画像はきっとAKB系の宣材写真を使ったのだと思われますが、それにしても綺麗過ぎる。なんだこれ。具体的にはどうやって学習させているのか気になります。同社は同じく二次元キャラ生成もやっているそうで、そちらも半端じゃなく綺麗。(gifがこちらにありました)

⑦人工歯をGANでデザインするクールな取り組み

ledge.ai

引き続きGANネタですが、これもすごいイカしてる。 失った歯をGANでデザインし、より効率的に、かつ個人にあった歯を作成する技術の取り組みについて。

人工歯は、これまでテンプレート歯みたいなものから歯科医が頑張って個々人に合うようにCADなどで整形し作成していたそうです。その改善策として、GANを活用して失った歯の形状を生成しそれを元に作成したところ、医師が作成した歯よりもより患者の口に合い、噛みあわせが良かったそうです。GANによる歯デザインの生成の特徴は、人間には難しい複雑で自然な歯のイメージの作成が可能なことだそう。

技術的には、失った歯とは反対側の歯の写真を撮り、その画像を元にしてpix2pixから歯のイメージを作成し歯冠を作成するとのこと。なるほどー。

GANは完全には綺麗な画像を生成できないことがネックでしたが、歯のようなものであればある程度ゆらぎを持って作ってしまって、あとは医師が微調整できればokですね。GANの活用事例のお題としてすごく良い感じにハマってる気がします。

人工知能よりも翻訳コンニャクをはやく発明してほしい

shirakiya.hatenablog.com

「この論文が日本語で読めればどれだけ効率があがることか…」とこれまで100万回くらい思ってますが、わりとこの業界の人は当たり前のように英語論文を読んでいてツライ。日本語論文とか頑張って探そうとするとバカにされる気がしてツライし、論文の解説を日本語でやってくれてるスライドとか見つけると神かと思ってます。

そんな悩みに対してとりあえず「公開された最新論文のアブストだけでも日本語でざっと見れる君」を作ってくれた方がおられた。尊い

めっちゃ良いのですが、この便利さと快適さを知ってしまうとなおさら「論文全文が完璧な日本語化できれば…」と思ってしまう強欲。googleはよ。

⑨インターネットはもはやナードが集まる場所ではなくなった

togetter.com

これをデータサイエンスのネタとしてよいのかは謎ですが、バズっていたので。

「男性の声を機械学習で女性の声にしたらやる気が出るぞ!」って講演したら、「女性差別だ!」となって炎上したという話。Y!社も公式に謝罪文を出したりしました。

少し前に「土俵に女性があがって炎上」という話がありましたが、あれって、10年20年前に起きていても誰もここまで社会問題にしなかったと思うのです。この10年ほどですごい勢いで男女平等や多様性の許容というアイデアが日本にもインストールされて、昔では「女性が土俵に上がったらやっぱりおかしいじゃん?」とスルーされていた話にも「いや、それは性差別でしょ」と反応できるようになったのだと。googleなどの大手企業も性差別には厳しい措置をとったりする時代なのです。

そうはいっても「性差」をどう捉えるかはそれこそ個々人の問題だと思うので(例えば、レディーファースト文化を女性差別と考える人だっている)、つまりそういったアイデアは胸のうちに秘めたり匿名で公開されたりするぐらいで、公の場で話すのはもう時代に合ってないからやめとこうぜというだけの話な気がする。実は8割の女性が職場にイケメンがいるほうが良いと思っているアンケート結果があったとしても、それは匿名だから気にしない気にしない、みたいな。

発表内容が載っているログミーの記事を読む感じだと、会場はけっこうウケていたようなので、やはり特定のクラスターの人たちが集まってその中では問題視されず称賛された内容だとしても、ネットで広く出回ってしまうと世間一般のフィルターではアウトということはきっとたくさんでてくるのでしょう。最近落語に行ってきたのですが、けっこう女性蔑視な内容もあってこれがネットにでると燃えるんだろうなぁと思ったことを思い出しました。

この件に言及しているかは不明ですが、つまりこういうことだなーと思ったツイートを引用

LTでウケたのも、世間で炎上したのも両方理解できるけど、なんかこれはこれで窮屈だなと思いつつ、対応策として良いなと思ったツイートも引用

宣伝です!!!

data-analyst.connpass.com

自分も運営として参加している、事業会社の分析官が集まる勉強会兼交流会の “Data Analyst Meetup Tokyo” vol.7 を開催します!

開催日は7/25(水)です。今回の開催場所はPairsで有名なエウレカさん。(麻布十番の超おしゃれなオフィス…)

今回は少し趣向を変えてLT6枠という感じでわちゃわちゃいろんな業界のアナリストの方々のお話を聞くスタイルとなってます。第9号でも紹介したTHE GUILDの安藤剛さんもLTに参加されます!

参加資格は”事業会社のデータアナリスト”に限定しております(なのでとても濃ゆい会で懇親会が楽しいです!)、公開1日半で30名の一般枠に150名以上の応募を頂いておりますが、抽選となりますのでぜひぜひ今からでも参加表明よろしくおねがいします!

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第11号】(2018.6.11~6.17)

f:id:ysdyt:20180430031726p:plain

①見分け不可能な超絶精巧AIコラ技術がついに出来てしまった...

gigazine.net

今週の一番の衝撃はこれですかね。

自身の表情・目やまばたきの動き・口の動き・頭の動きをターゲットとなる人物に移す映像技術”Deep Video”についての話。自分が喋ってる映像を、限りなく本物に近いオバマ大統領に変換したりすることができる。

百聞は一見にしかず、とにかくリンク先の動画をみてほしいのですが、もうこれは完全に見分け不可能です。本当にありがとうございました。

以前にもAIがAVの顔面部分に有名人を合成する「フェイクポルノ」とかありましたが、それとは全く別モノのクオリティーです。

この技術を作った本人たちも、この技術がフェイク動画などに悪用されていることはわかっていて、対策として「こういう技術がもうあるということをみんな知って、動画見るときは本物かどうかちょっと疑ってみてね」とか開き直っててヤバイ。おそらくGANのgeneratorとdiscriminatorのように、AIが作ったものを抜けけるのももはやAIだけという状況になると思われる。

フェイクニュースをシェアしまくるおじさんたちをFBでもよく見かける昨今ですが、テキストや画像は精巧な偽物が作り出せても、動画はさすがに真実だろうと思っていた最後の砦が崩される日も近いですね。「うそをうそであると見抜ける人でないと難しい」のレベルはここまできてしまいました。アーメン。

②天才高校生プログラマー、レシートデータビジネス始めるってよ。

www.businessinsider.jp

レシートデータをユーザから10円で買い取り、ゆくゆくは企業にデータ販売するビジネスを開始した高校生の話。投資ファンドから1億円も調達済み。日本人は若い天才が大好きなのでメディアも今週たくさん記事にしていた印象です。

一方ツイッターでは、天才高校生を応援する声や、レシートビジネスってどうよ…という賛否に別れている印象。

個人的にも、レシートデータの分析をちょっとやったことがある経験から、そもそもレシートに正確な商品名が書かれてない(表記揺れが酷すぎたり途中で文字が切れてたりする)場合が多すぎて無理ゲーだった記憶。それとは別にフォーマットがバラバラな対象への機械的な文字読み取り(OCR)も難易度高そうだし、難しいチャンレンジになりそうな予感です。電子決済が進んで行く中でレシートはなくなりますし(アプリで電子的に管理される)、割と時代と逆行したモデルのような。

そんな凡人の考えとは裏腹に、早速死ぬほど買い取り依頼がきてサービスが一時停止になったり(買い取りを停止するまでの約16時間で、約7万人のユーザーから合計約24万5000枚の買い取り依頼があったらしい…)、 付箋でも葉っぱでも10円で買い取られるぞ!ということで騒ぎになったり、話題に事欠かない1週間となった模様。新しいビジネスを作るというのは大変や…

③「耳の形」を見て絵師を当てるAIさん、ガチな絵師ファンみたいな当て方が面白い。

www.sankei.com

(たぶんCNNの)転移学習を使って源氏絵の絵師流派4分類を96%精度で分類。さらにモデルの注目箇所をGrad-CAMで可視化したところ、専門家が見るところとは異なる「貴族の耳」に注目していた、という話。 深層学習の適応先が日本絵画というのも素敵な感じ。

学習データを作る際に、約3万枚の源氏絵画像から人の顔を切り出したところ560枚しか得られず、そこで別の学習済みモデルを使ってファインチューニングして精度を上げたとのこと。

学習済みモデルは、”数百万枚の画像を使った学習が済んでおり、図形を認識できる既存のAI”と説明されており詳細は不明。ちょっと気になる。

Grad-CAMの結果、モデルの分類時は「貴族の耳」の形に注目していることがわかり、普段専門家が分類するときとは異なる点を見ていたところが驚きポイントだったらしいです。

こういった分野では大御所の先生が「◯◯だ!」といえば異論を挟みにくい雰囲気があったりするそうなのですが、「AIが言ったなら仕方ない」という逃げ道ができて中の人達は嬉しそう。古い業界での人工知能の本当の価値は、確度の高い答えを教えてくれるのに負けずとも劣らず、「体のいい言い訳」を作ってくれることなのかもしれない。

与太話ですが、以前友人たちと「MSゴシック絶対許さんマン」というフォントの識別を行うCNNモデルを作成し、Maker Faireに展示したことがあったのですが、その時もモデル注目箇所をGrad-CAMで可視化したところ、フォントを扱うデザイナーの方が注目している点と異なる箇所を識別ポイントにしていたことがわかったので、こういった発見の驚きと楽しさはすごくわかります。

チームメンバーと頑張って作成したので良かったら見てみてください -> CNNは絵札のどの部分に注目してフォントを見分けているか

④デバイス側で深層学習するカメラ、Amazonの”DeepLens”

japanese.engadget.com

ネットワークに接続せず、デバイス上で深層学習を用いた画像認識などを行えます。 という、Amazon謹製のカメラが249ドル(約2万8000円)でアメリカで発売開始されたという話。

Alexaといい、Amazon様がイケイケ過ぎる。カメラのデザインもイケてる感じ(充電ケーブルが白いのかどうか気になりますね。)

DeepLensにはGreengrass、TensorFlow、SageMakerなど、最新のツールが付属。また、「歯を磨く」「ギターを弾く」など30種の動作を識別したり、犬や猫を見分けたり、ホットドックかそうではないかを見極めるものなど、学習済みの深層学習モデルもセットされており、別途環境などを用意しなくても、誰でも10分以内に深層学習を始められるとしています。

詳細はよくわからないものの、学習済みモデルを使って推論に使うだけでなく、将来的には学習もクライアントだけで行えるようになるような雰囲気(?)ですね。スマートホームの”目”のポジションを狙った商品なんでしょうか。もう生活がラクで楽しくなるならどんなデータでも持っていっていいよAmazonさん(とgoogleさん)という気分。

⑤AIで声を取り戻したジャーナリスト

www.bbc.com

BBCの和訳記事。喉の病気で発話機能を失ったベテランジャーナリストが、自身の膨大なラジオ放送データを学習に使い、自身の声を合成する深層学習モデルで仕事復帰したという話。 その肉声(?)が聞けるリンクがぱっと探した感じでは見つからなかったのが残念。

上でも挙げたフェイク動画や、第6号でも挙げたgoogleの電話予約AI”Duplex”のように、音声合成系の技術発展が最近加速度的にすごい。深層学習様様。

今では、ウェブサイトに載っている文章を録音すると、500ポンド(約7万3000円)で数日間で音声を生成してくれるようになった。

というように、膨大な音声データを必要とせず、少量のデータから効率的に学習する方法もビジネスとして確立しているというのが面白いですね。我々が初音ミクで満足しているうちに、世界もどんどん進んでいるのだ…

⑥”目で見えないもの”も予測するニューラルネット

japan.cnet.com

動く人の映像と、そのときの電波反射パターンデータを組み合わせて学習することで、カメラで写すことのできない壁越しの人間の動きまでニューラルネットで推測できるようになったという話。理屈もわかるし予想もできますが、やっぱりすごいなー。

ちょっと話は飛躍しますが、人間が知覚できるのと同じ可視光下の映像や音域のデータだけでなく、もっと広いデータを使えば、AI的なものは人間がいうところの”第六感”的なものも推測できるようになるのかもしれませんね。そういう実例を誰かが出してくれるのを密かに期待しています。”おばけ”的な不可視な存在がやっぱり存在するみたいだぞ、とか。

⑦面白かったARネタも貼っとく

⑧日本の人口密度分布図可視化

機械学習で”画像を見ずに”細胞分類を超高速高精度に行うシステム “ゴーストサイトメトリー”が超かっこいい

www.jst.go.jp

100人の男に聞くと、100人がかっこいいと答えるであろう中二心をくすぐるネーミングセンス。いや、カッコイイのは名前だけじゃないのだ。

生物学領域の話ですが、人間よりも千倍以上早く細胞を識別して選り分ける機械学習システムのお話。産学連携・ハードウェア/ソフトウェアと様々な領域を越境して研究開発し、その成果はScience紙にも掲載されたそうです。

細胞を適切に分類する作業は、さまざまな診断や再生医療・細胞治療など高い安全性や信頼性の求められる医療に必須の技術です。しかし、人間が手作業で細胞の”見た目”から選り分けることは非常に難しくかつ遅いことが問題でした。その後、さまざまな自動分類技術が発達したものの処理速度と分類精度のトレードオフがあり難しい領域だったそうです。

ゴーストサイトメトリーは、人間が関与しない細胞分類システムとして、画像(人が認識するためのデータ形式)を作らずに、単一画素圧縮計測信号を直接機械学習モデルに判別させるというシステムだそうです。 イメージ的には、人間が理解できる高級言語(画像)ではなく、1/0のバイナリ情報(圧縮したピクセル情報的なもの?)を直接学習させることでスループットと精度をあげている、という話だと思われます(怪しい) 画像情報を使わずに情報のエッセンスを処理させるところを”ゴーストを見ている”と表現しているネーミングセンスに嫉妬。

これによって、大きさも同じで人の目で見ても形の似た細胞でさえも超高速・高精度に分析・判別できるようになったそうです。 ハードウェア的には、超微細な蛍光標識データをどう検知するか、ソフトウェア的にはリアルタイムイメージ情報処理手法の開発が重大な課題となっていたところ、光・流体・電気ハードウェアと機械学習ソフトウェアを密に結合することで、両課題を一挙に解決したそう。

日本の誇るべき技術!と言いたいところですが、競争の厳しさはもちろんサイエンスの世界にもあるわけで…

⑩ AI・データ活用案件の進め方指南書が経済産業省から公開されたぞ!

www.meti.go.jp

データ分析活用やAI開発案件には、データや機械学習が内包する特性を理解した上で、一般的な受託分析やシステム開発スキームとは異なるスキームで契約や進行をすることが多いです。

「偉い人からの命令とお金ならあるんや!」という豪胆な企業もあるものの、そもそもどこに発注すればいいか、どういった要件定義が必要か、何を考慮しておかないと失敗するリスクがあるかなど、なかなか把握しにくい部分があるのもたしかです。 具体的な実例が少ない「データ・AI案件」に対して、「案件やるならこういった項目を検討しないと大変だよ」というガイドライン経済産業省有識者が作ってくれたそうです。

内容は以下の2点について。

  • データ編

    データの流通や利⽤を対象とする契約について、各契約当事者の⽴場を検討し、⼀般的に契約で定めておくべき事項を改めて類型別に整理した上で列挙するとともに、その契約条項例や条項作成時の考慮要素を提⽰。

つまり、データの受け渡し・共有が発生する契約のときに気をつけておくポイントなどが書かれた指南書。

  • AI編

    AIソフトウェアの特性を踏まえた上で、開発・利⽤契約を作成するにあたっての考慮要素、当事者の適切なインセンティブ形成の⽅法、トラブル予防⽅法等についての基本的考え⽅を提⽰。

つまり、AIシステムを作る仕事を契約するときのハマりポイントを教えてくれる指南書っぽい。

本文はPDFで356ページにも渡るものでこちらはヤバイのですが、それとは別に概要をまとめた7ページのものもあるので、AI案件をやらないといけない人たちは一読の価値ありだと思われます。

⑪数枚の2D画像から3Dモデルを生成するGQNがすごすぎてもうよくわからない

PFN岡之原さんが「この1~2年内の最大の進歩」という話。ゴゴゴゴ。。。

deepmind.com

人間の場合、たとえそれが初めて見る彫刻だったとしても、一方向からそれを眺めるだけで「反対から見るとこういう形だろうな」「厚みはこれくらいだな」「真上から見るとこうだろうな」という”立体感”を当たり前のように想像することでできますが、機械の場合、限られた方向からの画像を数枚見せたくらいではそういう推測はもちろんできず、実現するためには膨大な教師データと学習が必要でした。

それを新時代の神ことDeepMind様が「出来たよ」と発表したのがGenerative Query Network(GQN)という新技術。

教師データ無しで!しかも異なる視点からの数枚の画像だけを元に!3Dモデルを生成する!という驚くべき技術。 機械がこのレベルまで3D空間を再現ができるようになると、いよいよ言葉通りの”人工知能”じみてきた感。

最近は当たり前のように2次元画像だけから深度センサー無しに深度(対象までの距離)を再現できるようになってますが、(それだけでも未だにめっちゃすごいと思うのですが…)、ついに距離だけではなく立体物までも再現できるようになってきました。 現在は単純な形のオブジェクトしか生成できないとしているものの、もっと複雑なものも構成できるのは時間の問題でしょう。はー、すごい。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。

WEEKLY人工無脳【第10号】(2018.6.4~6.10)

f:id:ysdyt:20180430031726p:plain

①きゅうり農家小池さん『俺が人工知能だ!!!』

news.mynavi.jp

機械学習界隈で「きゅうり」といえば知らない人はいない小池さんのきゅうりマシン奮闘記の振り返りとこれから的なお話。 実は筆者が人生で初めてバズった記事がきゅうりマシンを紹介した記事だったりするので個人的にファンでずっと応援してます。

何はともあれ、誰もが注目してしまうのはここでしょう。

1.4倍の作業スピードの向上が図れたが、半年後にはわたしの判断能力が向上したため現在は使っていない。

学習用の正解データ作りすぎて「俺が人工知能だ!」状態。

め  っ  ち  ゃ  わ  か  る  … !!! 完全に機械学習アルアルです。

「当初は完全自動化を目指したが、最終的には”人間のサポート”役と位置付けた』という話も納得しか無い。 人間が行うリアル世界の活動を完全に機械学習で完全に代替えする難しさを実地で実践されてて尊い

この記事も、「いろいろやったけど最終的に無理でしたわー」という話ではなく、人間のサポート役とした三号機はきゅうり仕分け作業の初心者や未経験者には効果的なのではと説明しつつ、

8月には4号機を完成させたい。最終的には、自動収穫ロボットを開発できればと考えている。農業の効率化にテクノロジーを活用し、品質向上や収量の増加、栽培ノウハウの継承に取り組んでいければ理想的だ

相変わらずカッコイイです小池さん。

②デジタルアートと機械学習APIはきっと相性が良い

cloudplatform-jp.googleblog.com

紅白歌合戦などでもPerfumeライブの特殊演出はすっかり有名になりましたが、それを手がけているのがライゾマティクスというメディアアート集団です。個人的には超大好き。

そのライブの特殊演出に、ライゾマはGoogle機械学習APIを使っているというお話。具体的には

  • 一般から募集しアップロードされた約23,000枚の写真をリアルタイムに画像解析し、PerfumeのMVの類似したフレームを検索するインタラクティブコンテンツとして公開。ライブ当日もステージ上の演出素材として活用
  • perfumeのすべてのMVからフレーム画像を作成し、tensorflowで画像分類。t-SNEで二次元に潰してコラージュ画像を作成

というもの。

GoogleやMSが提供する機械学習系のAPIは、ビジネスに使うには少し痒いところに手が届かない・利用料金が高い・精度が微妙に足りないという部分もあるものの、デジタルアートの一部として活用されるのは非常に親和性が高そう。特に、2つ目の作品は個人でも作れそうなので、こういった趣味活動をして名を挙げるメディアアーティスト的な人は増えそうですね。

③可視化業界のタブー?「顔の美しさ」を数値化

www.itmedia.co.jp

Microsoftの年次イベント「de:code 2018」で東大の研究室が発表した「女性の顔の綺麗さを機械的に数値化する」技術の話。

正確には、「人工知能が女性の顔の“魅力度”を判定し、最も魅力が高まるような化粧を推薦してくれる」と謳われているが、本質的には「人間(特に女性)の顔の美醜の数値化」であると思う。(そのまま言ったら絶対に炎上するので良い感じに見せ方を変えたのだと…)

機械学習を勉強して、なにかオリジナルのアプリ的なものを作ろうとした人は必ずは一度は考えたであろうネタを、東大研究室がガチでやってて草。でも誰もが取り組みたくなる魅力はありますよねー。わかる。

手法としては、女性の顔の美醜を人間が点数化(1~5点)し、それを教師データとして顔画像を学習させたらしい。結果、実際に人間の評価と比べても非常に強い相関が見られた(相関係数0.85程度)とのことでなんだかんだすごい。デモで出されている結果写真をみてもわからんこともない。

不謹慎と言われるかもですが、こういった機能をマッチングサイトとかは真面目に実装すればいいのになと思ったりもします。”顔の好み”を数値化してレコメンドに活かすとかすれば、批判もあるでしょうが間違いなくユーザーは爆増するかと。

個人的には、

「女性の顔については、古今東西、大体同じ評価尺度が存在することが、心理学の分野で判明している。一方、男性の顔の魅力については、複数の評価尺度があるといわれている。 という話も面白い。”男の魅力”に関してはもっと動物的な感じで、権力的なものが男性の魅力としてカウントされる側面も多分にありますしね…

ちなみに、「顔の数値化」は過去にもいろんな人がトライしていて、クリエイティブラボpartyも2016年にDeeplooksというウェブアプリを出してます。

(追記)すでにディスりがまとめられていました。なんというか、こういうのは「できるからやった」感が強いと思っています。人間の顔の定量的な分析は昔から多くの人の興味分野で、「平均顔」とか「信頼を得やすい顔」とかと同じ話の延長にあるだけかと。

④ハチに学ぶ効率的な脳の仕組み

gigazine.net

面白い! ハチがゼロという概念を持ってるっぽいぞというための実験方法が意外にシンプルなのも面白いです。 で、生物学的な発見として、ハチにも数字の概念あるのかもね、すごいねってだけではなく、話のオチとして

人間の脳には800億個の神経細胞があるのに対して、ミツバチにある神経細胞は100万個未満だとのこと。少ないニューロンにもかかわらず高度な知能を備えたミツバチの脳を研究することで、より少ないニューロンで高度な計算を行えるメカニズムを解明できれば、ニューラルネットワーク技術を活用するAI技術にも転用できるのではないかと期待されています。

と、人工知能的な話に向かってるのに時代を感じますねー。

ちょっと話が脱線しますが、毎週楽しみに聞いてる今週のバイリンガルニュースで、もしも地球外知的生命体に遭遇したら実際はどうやって意思疎通をとるかというワークショップが学会で開かれたという話が紹介されてました。

実際は言語交渉よりもまずは数学の概念を使った意思疎通を試みるとのことです。確かに数学的概念の方が人間言語よりは共通理解を得られそうな気がしてなるほどーという感じなんですが、ハチよろしく、数学的な概念を持ってる生物は実はもっといたりすると面白いですね。アリとかもわかってそう。猫は何もわかってなさそう。

Appleも出した”GUI機械学習”。使いどころが未だにわからない…

shu223.hatenablog.com

WWDC18でAppleGUIで操作する機械学習モデル”Create ML”を発表。macOS 10.14 Mojaveから使えるそうです。 実質3行ほどのコードを書くだけで画像分類的なタスクがGUIで完了する、らしい。

Googleもプログラミング不要のAutoMLを出していて、両モデルとも、”ドラッグアンドドロップインターフェイスで実行できる!”というのが大切らしいが、未だに「これで流行るのだろうか…どういいった人がどんなときに使うのだろうか…」という疑問を抱え続けている…

GUI機械学習、実際はどこまで広まるだろうか。

⑥子どもたちが鉛筆を振る未来が見える…見えるぞ…!

nlab.itmedia.co.jp

子供向けIoTネタ。 鉛筆に加速度計をつけ、勉強した時間を計測してポイントを貯め、アプリ内の謎の生き物(?)を育てるゲーミフィケーションアプリ。 シンプルなのにたしかに楽しそうで、「やられた!!!」と思ってる人も少なくなさそう。

謎の生き物をもっとデジモンとかムシキング的なキャラクターにできると新たなウンコ漢字ドリル的キラーコンテンツにならないかしら。 まぁ流行ったら流行ったで、鉛筆を振るだけの本末転倒作業が始まってしまうのですけど…

個人的には、「え、現代の小学生もまだ鉛筆使ってるんだ」ってちょっと思いました…平成ももう終わるよ…?

⑦なぜ企業は”研究”をすべきか

Preferred Networks における研究活動 | Preferred Research

“日本のDeepMind”こと(敬意を込めて心の中で勝手に呼んでる)、PFNさんの『PFNはなぜ研究をするのか?』についての記事。

日本の機械学習業界でトップを走る企業の”研究活動”に対する姿勢や意義のアイデアが語られていて興味深いです。基本的にはPFNさんのカッコイイ話が書かれている強いリクルーティング記事っぽいですが、”AI研究部署”を持つ企業は一読の価値ありだと思います。すでにトップレベルの技術力を持つPFNさんが、「いや、まだまだやねん、今後ももっと重点的に強化していく予定やで」って言われると他の企業は真顔にならざるをえない。

PFNのような企業で、今すぐ直接お金に結びつかないような研究をする意味はあるのでしょうか?例えば、論文を書こうと思えば貴重な業務の時間をごっそりと使ってしまうことになるし、それを出版すれば社外の人たちに技術を教えてしまうことになります。こう考えると、学術的研究や論文執筆は、会社にとってマイナスの活動のようにすら見えます。

AI活用を目指す多くの企業がこれに対して明確な答えを持っていないと、名ばかりのAI研究部署で優秀な技術者を飼い殺す可能性があって怖いなと感じるこの頃です。

この記事ではこの問に対して、PFN流の「現状には過剰と思える技術を開発する必要性」「外部発表をする意義」「他者とのコラボレーションの価値」などについて説明されています。

個人的にはここがめっちゃかっこよくて好き。

アラン・ケイの「未来を予測する最善の方法は、それを発明することだ」という言葉は、実際にいくつかの分野で世界をリードしたりトップに迫ったりといった成果を出すことができている我々にとって、大きな実感があります。

⑧DeepMindが一連の機械学習アルゴリズムに国際特許出願

ipkitten.blogspot.com

DeepMindが発表していた一連の機械学習アルゴリズムに国際特許出願していたことがわかったという結構びっくりな話。AIをビジネスにしているところは広く関係する話。

特許申請は2016年9月から2016年12月の期間に週にほぼ1回の頻度で出されていたらしく、さらに2016年12月以降に提出された申請はまだ一般公開されていないので、まだまだ他にも出願済みのものがあるかもとのこと。

AIに関する特許取得は世界的なトレンドのようで、もちろんgoogle本社もAI系分野を含めた技術特許を取りまくっている会社。しかしDeepMindの経営理念は「研究コミュニティと人類全体の利益のためのAI研究の発展」としているので、それと特許取得がどう関係しているのかとツッコミが入っている。

DeepMindがある日突然パテントトロールみたいになることは多分無い(そうなったら世界的にAI業界が停滞しそう)と思われますが、悪意を持って利用する人はいくらでもいるので、守るもんは守っとくかという感じであることを期待。

■「WEEKLY人工無脳」は、筆者がSNSや日頃の雑談で知ったネタを独断と偏見でまとめているブログです。
■「WEEKLY人工無脳」は、筆者がその話題を知ったタイミングでまとめているため、「記事公開自体は先月」といった可能性も十分にあり得ます。速報性よりも話題性を重視していることをご了承ください。(ですが、できるだけ直近の話題にフォーカスしてます。)
■「WEEKLY人工無脳」は個人の余暇で運営しているため、調べが足りないこともあります。誤りがあれば優しく教えてください。
■「WEEKLY人工無脳」は「独断ニュース(http://dokudan-weekly.hatenablog.jp/)」に刺激を受けて書き始めた、独断ニュースのデータサイエンス・人工知能業界版です。飽きるまで適当に続けます。