どうも、Yuki Hiraiです。
先日、
Google Developers ML Summit Tokyo 2018
に参加してきました。
アジェンダはざっとこんな感じです。
本日のアジェンダ
– TensorFlowとCloudMLの概要
– MobileMLの概要
– ML APIとAutoMLで始める実践MLアプリ開発
– ML Kitの概要
– EdgeTPU
– Actions on Google
– BigQuery MLではじめる予測分析
– 機械学習プロジェクトにおけるCloud AI Platformの使い方— Yuki Hirai👨💻 (@yabaiwebyasan) December 14, 2018
ref: Google Developers ML Summit Tokyo 2018
一部時間が被っていて参加できないものがありましたが、
自分が参加してところについて簡単にまとめていきますw
まずはTensorFlowとGoogleが提供している便利な機械学習のクラウドツールについて書いていきます。
TensorFlowとは機械学習開発のためのオープンソースツールです。
これを用いて独学でセルフレジをつくった例もあります。
画像2万5千枚を手作業で撮影して学習データを蓄積したとのことです。
他にも機械学習によるタクシーの最適な配置を実現したり、
カタログショッピングでTPOのベクトルを抽出してレコメンドしたら
コンバージョンレートがあがったなどの例もあります。
IT業界に関連するバズワードはいくつかあります
近年、機械学習や人工知能はまさにバズワードでしたね
いろんな意味でこれらのバズワードが使用されているので
まずは簡単に人工知能というワードについて整理しておくと
Googleの場合は弱いAIを開発しているとのことでした。
人間みたいな強いAIは実現できていないとのことです。
ちなみに強いAIや弱いAIという言葉は
強いAI => 人間の知能に迫るようになるか、人間の仕事をこなせるようになるか、幅広い知識と何らかの自意識を持つようになる
弱いAI => 人間がその全認知能力を必要としない程度の問題解決や推論を行うソフトウェアの実装
といった意味合いで使われます。
ref: 強いAIと弱いAI
弱いAIでは
りんごとみかんをどう分類するか
といった内容のことを自動化できないか実装します。
例えば
ピクセルの色の平均値をとればプログラムでも分類できます
ただ
グレースケールされたりんごとみかんはどう判断する?
という問題にぶつかります。
これまでのソフトウェア開発では
ルールを人が決める
というのが基本になっていました。
機械学習ではこれを計算機がルールをみるけてくれるようになります。
例えばGoogleが開発したCloud Vision APIでは
過去の学習データからあらゆる画像データを判別することができるようになります。
現在の精度は1000枚中2,3枚は間違える程度とのことです。
完璧な判別ではないにしろ
AIが怪しいところをいくつか提案することで
人間が選択する上で効率化できるので
生産性をあげることができます。
これらは
など2012年ごろから話題になっている技術を用いて実現することができるようになりました。
Googleではそれらを専門知識がなくても使えるようなツールを提供しています。
Wantedlyでは
ユーザーのプッシュ通知を送るかどうかを
BigQuery MLを使用して
判定しているという実例があるそうです。
Cloud AutoMLでは
カスタムモデル開発における煩雑な作業を自動化することもできます。
データの前処理、機械学習モデルのデザイン、機械学習モデルの最適化など
数百枚だけでもいいし
精度をたけめたければ数千枚といった画像データを準備することで自動化が可能になります。
実際にCloud AutoMLで
ラーメン二郎のラーメン画像が41店舗のどこで撮影されたものなのか
を95%の精度で判定できるようになったとのことです。
他にも
ライフルで物件画像のカテゴリ分類を大幅に改善した例もあるそうです。
=> 物件画像の分類(外観、キッチン、バスルーム)など
次回: Mobile ML の概要について