AIにコードを書かせることがかなり普及していて、もう使うのが当たり前になりつつある中で、しばしば「AIを使っているのに速度が出ないのは人間の思考が遅すぎるからだ」という意見が出てくる。「人間ボトルネック論」だ。
ちょっと深堀りしてみよう。
今、AIにあるプロダクトを作らせている。仕様や設計は人間がやって、実装をAIがやる。テストも通るし、人間が実際に目で動作を確認してバグを報告して修正させて、動くものは出来上がっている。しかし、ある瞬間、突然型が壊れた。型エラーが消せなくなった。型を直すには根本的な型定義から書き直す必要がある、ということがわかった。
ここで型エラーをサプレスすれば、AIにこのまま書かせ続けることはできる。
それを選ばずに、型定義レベルの設計をやり直した。人間が型を書き、そのとおりに実装させることにした。この型定義には3日かかった。AIが実装したときは3時間でできた。しかし潜在的には壊れていた。
ボトルネックはどこにあったのか。
AIである。今のAIは、人間でも困難なことは、「やったように見える」状態にしか持っていけない。解決せず、解決したように見えるようなゴールを目指してしまう。結果、ゴールからは離れていく。この遠回りを修正するために人間が労力を支払っている。
AIのボトルネックはまだ人間などではなく、結局AI自身にある。
本当に人間がボトルネックになる時代は来るか? 原理的に、トランスフォーマーモデルの間は、そんな時代は来ないんじゃないかと感じる。
こちらからは以上です。