最近は趣味で "AI" を「自作」しているのですが、実用に耐える精度を出すにはアノテーション作業(手作業でデータを分類して学習させること)が半端なくめんどくさいですね。"AI" の実用化は概念実証 PoC が重要であり、要するに実用化の目途を判断するために一定期間で試行錯誤を繰り返すことになるのですが、アノテーション作業が重すぎてそこがボトルネックになってしまい、なかなか PDCA サイクルを回転させられないです。
あとは想像以上に手元にデータがないですね。ゼロからデータを作成することで対応しようとするのは要求される物量の観点から実際上無理です。精度を出すまでに至りません。しかも、分類の種類を増やすほど、それだけ必要なデータ量も比例していくイメージです。やはりビッグデータが必要ですし、それを捌ける人的リソースは必須になります。個人レベルでは Twitter や Gmail からテキストを借用したりして対応することになりますが、なかなかしんどいです。ひとりの法律家が一生涯にこなせる案件をすべてデータ化しても自動で案件処理ができるようになるのに必要なデータ量としては全然足らないと思います。
なお、わたしが使っているのは、MonkeyLearn という自然言語処理系の "AI" を超簡単に自作できるツールです。日本語対応が不十分だったりしますが、カスタマイズとツール連携をうまく使えば Gmail とかでアラートを出したりするくらいのことはできそうなかんじはします(出せたとは言ってない。)。スプレッドシートとも連携できます。単純なものなら NPS 調査もできそうですね。
"AI" は結局のところパラメータ発見装置なので、事象としての複雑性や非定型性が増すほど適用が難しくなります。よって、"AI" の活用を考える前に、いかにして数々の現象を単純なモデルで記述できるかがポイントになります。帰納的な方法が大切になると思いきや、逆説的に、だからこそ演繹的な方法が大切になります。平たく言えば、何事も経験できたらそりゃいいだろうけどそんなことは物理的に無理だから理論を使うんだよ、ということです。"AI" の適用範囲はとにかく絞ること。とにかく、これが大切です。正直、しろうと的には最初の分類方法(フレーム)の設計がすべてですね…
ちなみに、"AI" を活用する利点としては、生身の人間ならば誰でも持っているその時々の認知的な歪みに左右されずに短いスパンで延々とタグ付け(分類)ができる点です。
一度やってみてはいかがでしょうか?
自作 "AI" の課題まとめ
- アノテーション作業のコストが高いこと
- 学習に利用できるデータが少ないこと
- 最初のフレーム設計がほぼすべてを決めること