ChatGPT(GPT-4)についての所感を書きます。2023/3/18現在の意見です。
一言で書くと、「とんでもないシロモノが世に生み出されてしまった。社会構造が見たことのない変革を迫られるかもしれない」ということです。
いやね、GPT-3の時点では「あ、ふ~ん。まぁ、このクオリティならまだまだかな……」くらいの、おもしろおもちゃくらいの考えだったのですが、GPT-4登場は衝撃的でした。まだ現物をいじっていないのですが、紹介記事や論説、実際に動かしている動画などを見た限りでは、「え、これ、やばない!?」という「恐怖」を感じました。正直に書くと、かなりのホワイトカラーが失職する危険性があります。
しかもこれ、MSのOffice製品に載るんですよね。「Microsoft 365 Copilot」という名称で、「副操縦士」という名称はあくまでもサポート、という意味なんでしょうけど、そのうち人間の方が副操縦士になってしまうかもしれません。
GPT-4のヤバさは週明けに様々な媒体で記事が出てくるでしょうから、割愛します。
自然言語処理の終焉?
自然言語処理(Natural Language Processing, NLP)業界で学生の頃から生活の糧を得ています。そういうこともあって、今回のGPT-4の破壊的なイノベーションには、喜ばしさよりも、むしろ不安や恐怖の方が強いです。これ、すごすぎるんですよ。人間が使いこなせるのかどうか。
現に言語処理学会という自然言語処理の日本最大?の学会が今週あり、GPT-4公開日の3/14に緊急パネルセッションが開かれました。乾氏・黒橋氏とNLP会の大ボスみたいな人たちが出てきて議論を交わしたそうです。そして、黒橋氏いわく、「これまでの自然言語処理終わったね。新たな自然言語処理の研究領域が始まっていくだろうから、そちらに進んでいくのがよいのでは?」とのことで。
パネルセッションの内容は非公開なので(私は会社の人が参加していたので見られますが)、こんな記事で中身を想像するにとどめましょう。
この上記のnoteの記事で述べられているように、仕組みとしてのNLPはこれでかなり片が付いてしまっていて、よりビジネスサイドだったりあるいはよりニッチな需要に傾いていくのかな、という印象です。
少なくとも、我が社もかなり会社のかじ取りが変わってきそうで、ビクビクしています。NLPほぼ専業みたいな会社ですから、ChatGPTをチューニングするためのあれこれ、みたいな業態に変わっていくかもしれませんね。あとは、よりニッチな業界向けの言語モデルを作ったり、外国に流せないようなデータの取り扱いとか。今のところこのくらいしか思いつきません。
人間の仕事はなくなる?
早く労働から解放されて全員BIでええやん、と思わなくもないですが、そうもいかないようで。おそらく最初に淘汰されるのは同じ動きを繰り返しやるホワイトカラーで、人間の方が安い職業はそのままだと思います。
スマホが無い社会、インターネットがない社会、乗用車が無い社会が想像できないように、ChatGPT(並びにそれに並ぶような対話型AI)が無い社会はおそらく不可避で、これは不可逆的な流れなのでしょう。
YouTubeで2000年代前半の鉄道の前面展望動画とか見てると、ホームで待っている人はスポーツ紙を見てるか、文庫本を眺めてるか、あるいはぼーっとしてますけど、今は私含めてほぼ100%がスマホ・スマホ・スマホなわけです。「スマホは法律で禁止されました!」とか言われたら、とんでもないことになるでしょう。
おそらく、というか間違いなく対話型AIが使いこなせるのが当たり前、という世の中になっていくのだと思います。そういう意味では、営業はなくならないけど、ただコードを打つだけのコーダーとか事務員とかパワポ職人とかマクロ組みとかは一掃されそうですね。
「言葉を理解する」とは?
こういうChatGPTに限らず、AIがらみの議論で「AIは言葉を理解していない。あくまでも表面的に文字列を並べて、それっぽい回答を返しているだけ」みたいな批判があります。私もその意見には割と賛同派だったのですが、GPT-4の精度の高い返答を見ると(チューニングされてるんでしょうけど)、その批判ももう無理筋だな、と考えを改めました。
そもそも、「私たちは本当に言葉を理解している」んでしょうか?
何かの質問を投げかけて、応答する。人間ですから当然間違いはありますし、うまく聞き取れなかった、聞き取れたとしてもその後の意味が分からない、概念が分からない、解釈できない、様々な要因で質問の意図をくみ取れず、誤った回答を返してしまいます。
仮に正解だとしても、「ではなぜそのように考えたのですか?」という質問に答えられないこともあります。自分でもどうしてその返答にたどり着いたのか、筋道立てて説明できない。となると、実は私たちもAIと同じ、成長成育の過程で外界の刺激を受け取って、何らかの言語モデル・思考基盤を構築し、そのブラックボックスがインプットを受け取ってアウトプットを返しているだけの存在なのかもしれません。
言語学の究極目標は言語の仕組みを完全に解き明かす、なのですが、ほとんどの人にとってそんなことはどうでも良いのです。飛行機の仕組みを知りたいのは飛行機マニアと流体力学マニアくらいなもので、ほとんどの人にとっては飛行機に乗って「うわーすごーい目的地たのしみー」なのです。
それと同様に、ほとんどの人にとっては言語は道具であって、インプットを処理してアウトプットを返すブラックボックスの仕組みはどうでもいいんですね。
教育
となると、教育の在り方も大きく変わってくることになります。少なくとも、一問一答には本当に価値がなくなります。今でさえGoogle検索で調べれば出てくるんですから。それよりも、先述の通り「なぜその答えが導き出されたのか?」みたいな、結果より過程、プロセスを問うとか、あるいは持ち込み禁止で口述試験とか、そういうスタイルになるのかもしれません。何を持ち込んでもいいから高速で大量の問題を回答するというアウトプットを出して、という感じでChatGPT技術を測る試験とかになったら面白いですね。
とはいえ、では勉強しなくていいかというとそんなことはなく、結局そのChatGPTのアウトプットの良しあしを判定するのは最終的には人間ですから、そのためのお勉強は必要です。
ChatGPTで生成された文章やパワポを送り付けるだけだったら、それこそ人間である必要がありませんからね。
今後の展望
来週あたりたくさん記事が出てきて、しばらく市場は活況でしょう。で、そこからはガートナーのハイプ・サイクルの経過をだどります。できないことがだんだん分かってきて、「銀の弾丸はないのだ」(そもそも、ChatGPTのカバー範囲外のことまで期待される可能性すらあります)という幻滅期を経て、先述の通りスマホのように私たちの生活になくてはならないものになるはずです(少なくとも、ホワイトカラーは)。
幻滅期あたりで確実に、既得権益を有する人たちからの強力な拒絶反応が出てくるでしょう。新しい技術しゅごい!の私でさえ仕事がなくなる恐怖心におびえているのですから、パワポ職人・マクロ組み屋のホワイトカラーにとっては恐怖以外の何物でもないはずです。
Microsoftは7年前にAIと称する人工無能で盛大にやらかし、ヘイトスピーチを連発するという醜態をさらしていますが、今回はどうなることやら。これはトレーニングデータがゴミだとアウトプットもゴミ、という業界では当たり前田のクラッカーなことです。今回はさすがにこちらのダークサイドには落ちないでしょうが……。
危険性(セキュリティ)
また、世の中に広がっていく過程で、確実に問題点も広がっています。既にサイバーセキュリティ的なリスクが増大している、という警鐘が鳴らされています。
例えば、フィッシング詐欺は文面を見ただけでは、まったく分からなくなります。今は不審なSMSを見ても、「ああ、中国人あたりが書いてんな」くらいな幼稚な日本語だったり、あるいはメガバンクを名乗っていながらも日本の金融機関が絶対に使わない文面ですぐばれるという時代です。
ですが、ChatGPTに「○○銀行がシステムトラブルのお詫びをするメールの文章を書いて」とお願いするだけで、本物とうり二つのものが書けてしまうわけですから、文面では見抜けなくなります。
危険性(デマ地獄・インターネットがゴミだらけに)
これだけ自然な文章を書けるということは、デマだって思いのままです。そして人間と違って、それこそ無限にテキストが生成できるわけですから。
で、「これはAIが書いた文章ではありません」みたいな注釈をつけると、更にそれをChatGPTは学習して、より人間に近づいていくという。その注釈自体が「新しいエサ」ならぬ「新しい学習データ」なんですね。おお、こわいこわい。
結果、インターネットが今以上にゴミだらけになります。そのゴミを仕分けるのもAIがやったりして、もしかしたらGoogleの検索空間というのはあと数年で消えてしまうのかもしれませんね。
そもそも、人間が検索を使わなくなる可能性もあります。今はまだChatGPTにはリアルタイム性がありませんが(だから2022年以降の事柄、たとえばWBCの日本代表の戦績)、これもやがて可能になってChatGPTが勝手にクローリングしてデータを集めるようになるでしょうから、あらゆることをChatGPTに聞けばそれなりの回答が返ってくる、という世の中になるかもしれません。そうすると、検索とそれに付随する広告がメインのGoogleは終了、となってしまいます。Facebook改めMetaより先にGoogleが終わる可能性すらあります(Cloud事業があるのでそんなことはないでしょうが)。
危険性(結局政治の問題)
デマ問題にも絡んでくるんですけど、ベースとなる言語モデルの正しさ(?)を担保するのは誰なのか、という問題になります。一応、たとえば今回のGPT-4は50名以上の専門家以上で安全性を向上させている(社会を破壊するような質問には答えないようにするとかね)のですが、もう「脱獄」というその制限を抜けるような手法が編み出されていて、ですよねーという感想です。
また、その専門家というのもしょせんアメリカの西海岸or東海岸のインテリの価値観ですから、当然イスラーム世界とか中国とか日本の山奥とかの価値観ではないわけです。「妊娠中絶したほうがいいのか?」みたいな質問には当然YESと答えるでしょうし(実際はセンシティブな回答にはあいまいに答えるだろうけど)。
ということで、AIの元となるトレーニングデータがそもそも特定の価値観に既に染まっている、ということなんですね。これは人間も一緒なんですけど、一見中立的に見えるAIが実はズブズブで、さらに利用者の私たちはそれに無自覚である可能性が濃厚、ということです。テレビや新聞やネットなどあらゆるメディアによる価値観の刷り込みは、気づかないで行われるのと同様に、です。この話はChatGPTとは外れるので、このくらいで。
まとめ
繰り返しになりますが、「とんでもないやべーのが出てきた」という印象で、失職の恐怖におびえています。これを使いこなせるか否かでまた格差が広がってくるでしょうし、みんながそろばんぱちぱち弾いて一行ずつ計算している中、突然Excelのような表計算ソフトが出てきた、あるいは自転車レースで「やっぱりカーボンだよな」「ホイールはエアロじゃなくちゃ」とか言ってる間に「今年から同じ二輪なのでバイクも参加可能です」とか言われるみたいな感じ。別にそろばんとかロードバイクで走ってもいいですけど、まぁ、負けますよね。
本邦だとこれで無駄なパワポが大量生産されて、結局仕事の量は変わらないor増える可能性すらありますね。おお、こわいこわい。
0 件のコメント:
コメントを投稿