
AIの急速な実用化と発展は加速するばかり。仕事や環境がすっかり様変わりしてしまったという人も少なくない。しかし誰もがAIを利用して同質の情報やスキルを身につけられてしまうと、根回しやご機嫌うかがいだけで生きてきた「昭和型上司」も自分たちと同質の情報を手にして、好き放題をしてしまう未来が近づいているのかもしれない。そんな環境の中で生き残るためには、私たちはどうあるべきなのだろうか?
本記事では、経営戦略コンサルタントで「未来予測のプロ」である鈴木貴博氏が、AI時代に起こるべき脅威を伝える新著『「AIクソ上司」の脅威 2030年、日本企業の序列がひっくり返る』より、「ChatGPTの正体」について触れたい一節を紹介する。
※本記事は鈴木貴博 著『「AIクソ上司」の脅威 2030年、日本企業の序列がひっくり返る』(PHPビジネス新書)より一部抜粋・編集したものです。
ChatGPTの本質は、実は逆順の「T→P→G→Chat」で捉えると理解しやすくなります。
「T」はTransformer(トランスフォーマー)の略で、これは機械学習の専門用語です。文章を単語に分解して重みづけをしたうえで、重要な単語に重きを置くというAIの学習方式のことを指します。
トランスフォーマー方式だと精度が高いまま学習スピードが速くなるということで、この「学習スピードが速いAI」というのが、ChatGPTの1つ目の特徴だと捉えることができます。
次の「P」が意味するのはPre-trained、つまり「事前に学習された」という意味です。
ここが一番誤解されているところなのですが、ChatGPTは事前に学習した範囲内でアウトプットを出してきます。はっきり言うと、ChatGPTには創造力はありません。事前に調べた範囲内で整理して模倣する、その成長スピードが速いAIがChatGPTということです。
Pの意味するところについては、この後改めて深掘りして考えてみたいと思うのですが、ここではChatGPTは「既存のものを素早く上手に模倣する機械」だと理解して、先に進んでいきましょう。
3番目の「G」が意味するのが生成(Generative)です。この「生成するAI」という言葉がパワフルなためにChatGPTの性能が過剰に評価されてしまっているのですが、Pのところで説明したように、生成してアウトプットできるのは過去に学習した範囲内の整理、ないしは模倣までです。新しいものを創造する形での生成能力は持たない、その意味では限定的な性能しか持たない機械だと理解してください。
そしてChatGPTの最大の特徴が「Chat」、つまり「対話形式で使える」ということです。これはChatGPTが成功した商品特徴そのものなのですが、自然言語を入力していけば答えをどんどん生成してくれるため、便利なのです。
このように4つの特徴をT→P→G→Chatの逆順で解釈すれば、ChatGPTの正体とは、「学習スピードが速く、既存のものを素早く上手に模倣し生成する、対話形式で使える機械」であることがわかります。能力が限定的とはいえパワフルなAIが出現したというのが、2022年11月に起きたChatGPTの出現という「事件」の正体です。
ChatGPTの4つの特徴が揃ったことで、最初に危機に直面したのがグーグルです。
私たちは1日のかなりの時間、グーグルで何かを検索しています。しかし、グーグル検索には2つの欠点がありました。
1つはキーワードをどう選ぶかで検索結果が変わること。最初から適切なキーワードを選ぶことができればすぐに目的のサイトが出てきますが、場合によってはキーワードの組み合わせを何度も試していく必要に迫られます。
次に、表示された検索結果のサイトの中身を1つひとつ見ていく必要があること。そして、「このサイトには調べたいことが書いていない」とか、「このサイトの説明はわかりにくい」とぼやきながら時間が過ぎていくのです。
この2つの欠点をChatGPTは取り除いてくれました。今やマイクロソフトのブラウザであるエッジにはChatGPTを実装した検索エンジンであるBingがついていて、調べたい内容を自然言語で入力すれば、対話形式でより早く答えを見つけることができるようになりました。
そして今後、「調べる」「整理する」「模倣する」の3つの仕事が生成AIによって、より洗練された形で短時間でこなせる未来がやってきます。その意味するところが近未来の可能性である半面、社会にとっての危険性になるのです。
では、生成AIはこれからどうなるのか。1つ、予測をしてみましょう。
今、世界中のIT企業が独自ないしは提携の形で、新しい生成AIを育成しようとしています。
ここでカギとなるのが、先ほど申し上げたT、つまりトランスフォーマーの側面です。これから出現するであろう新しい生成AIは、成長スピードがとにかく速いのです。それはトランスフォーマーという機械学習方式に加えて、エヌビディアが提供する最新のGPUの性能がスパコンクラスに上がってきているというもう1つの要素も関係してきます。
繰り返しになりますが、AIベンチャーがエヌビディアのGPUを3個購入して組み合わせれば、1500万円程度の投資でスーパーコンピューター「京」と同じ計算速度のスパコンを作れてしまいます。それを手元に置いて生成AIを育成すれば、独自の生成AIができあがる。そんな研究がこれから世界中で行われます。
その際に、それぞれのAIの差異を生み出すのがPの部分、つまり「何を学習させるか」です。
ここでBingやグーグルの「Bard」といった先行組のAIはインターネット情報を学習していることを思い出してください。ググって出てくる情報についてはこれらのAIが先行しています。そのため、これからの生成AIはインターネットに載っていないニッチな情報の学習にフォーカスするだろうと、予測できます。
更新:04月01日 00:05