ChatGPTのようなAIに代替され淘汰されるのは誰なのだろうか。コラムニストで、都内の大学でライティングを教えている河崎環さんは「ChatGPTに、試しに大学の授業の課題を書かせてみたら、うっかり『良』をあげてしまいかねないレベルの文章を書いてきた。人間でもこのレベルの文章しか書けない層は、当然淘汰されてしまうだろう」という――。
大学の講義
写真=iStock.com/1001nights
※写真はイメージです

世界がまだ平和だった頃

昨年11月30日、米国の人工知能研究所Open AIがAIチャットボット「ChatGPT」のプロトタイプをリリースした頃、世界はまだ平和だった。

テキストを自動生成する対話型AIの性能がすごい、これはついに本当のディスラプション(破壊的イノベーション)だ、と大評判で、ローンチ後2カ月で世界中のユーザー数が1億人を超えたと聞いても(ちなみにTikTokは9カ月だった)、「よくわからない対岸の火事」だった。

日本でも、「人間が質問すると文章を自動生成してもっともらしい答えを返してくるんですよ、日本語でも書いてくれますよ。でも自分で思考するわけではなくて既にネット上にあるデータをリソースにそれらしい文章をつなげるだけなので不正確でテキトーなんですよ、面白いですよねハハッ」と一部のITギークや新しもの好きたちがSNSで沸くのを、一般のビジネスマンたちが「へー」と新しいオンラインゲームでもリリースされたかのように見ているだけだった。

「それらしいことを言う子」だったのに…

ところが、3月に入って世間の表情が一変する。

プロトタイプのリリースからわずか4カ月弱、最新モデルGPT-4のリリースに伴って有料プランでの提供が始まると、従来モデル(無料)の「それらしいことを言う子」ChatGPT(GPT-3.5)からの飛躍的な進化に「司法試験合格者のトップ10%に匹敵する」「東大の数学問題を解かせてもかなりのレベルで返してくる」と大騒ぎが始まり、人類の行方を憂い危機感を口にする人がそこかしこに見られるようになった。

これまでの「それらしいことを言っちゃって(笑)」と人間側が御する余裕のあったChatGPTの生成結果に比べ、GPT-4の生成結果はこれがAIによるものか人間によるものか咄嗟とっさの判別がつかず、なんならそこらの一般人よりずっと優秀(そう)な回答を返してくるものだから、「すわ、人間がAIに代替される未来が本当に来た」と、もともとAIは人間の職業を奪うぞ、ケシカランと警戒感の強い米本国や欧州はもちろん、(“みんな”で一斉に流行りの話題に集まりがちな)日本も大騒ぎになっているのだ。

一気に関心が高まった

そういった関心の高さを反映してか、この春以来、日本ではあちこちの新聞やビジネス誌がChatGPT特集を組んでは大いに読まれ、雑誌などは近年なかったほど売れに売れている。

「人間とAIの共生をいかに図っていくか」なんて哲学的なものや、「教育機関におけるChatGPTの利用をどこまで認めるべきか」「子どもにChatGPTを使わせていいのか」なんて倫理問題を眉間に皺寄せて論じるものにも人々が集まるが、「時間とコストだけかかって人間がやりたくないところはAIにやってもらおう!」「生産性アップでビジネスが変わる!」「これであなたも議事録抄訳自動作成」「もうエクセルは要らない?」「こんなの書かせてみた」「人生相談までできる」と、あんまり深刻に考えずに自分たちの暮らしを豊かにすることに使いましょうよ、なんて楽天的な方向性の記事も大人気だ。

凡庸な「それらしい文章」が得意

2021年までのインターネット(もちろん世界中だ)に存在したデータをテキスト生成のリソースとするChatGPT、およびGPT-4は、つまるところテキスト、語を並べるものならなんでも書いてくれる。

お願いの仕方(“プロンプトを出す”という)次第で、ドラマの脚本でも、新聞記事でも、学校のレポートでも論文でも、本のあらすじでも、「既存のエッセーを村上春樹の憑依文体で書きなおしたもの」でも、そしてプログラミングも書き上げる。「この言葉のあとには統計的にこの言葉が来やすい」「この言葉の後ならこっちの言葉」というふうに、最もライクリー(ありそう)な言葉をどんどんつなげていくのである。

怖がる必要はない。もともと世の中に広範に存在しているデータから生成するので、これまで誰も見たことのないキレッキレにクリエーティブなものを書くのは苦手、というかできない。

だから特段尖ってもカッコよくも個性的でもないし、ハッとする光も毒もなけりゃ痺れもしないけれど、定型に沿って整った、一般常識っぽくて「それらしい」文章は大の得意だ。

「おっ」と思える文章を書くのは1割

私は都内の大学で密かにウェブライティングを教えており、私大文系2、3年生が書くような2000~3000字程度の「架空のウェブ記事」にたくさん(当惑や称賛や憤怒の)赤を入れてきた。大学受験準備で小論文指導を受けて入学し、プライベートではブログや小説の真似事のようなものを書いたりもする彼らを「ウェブという、PVやSNSリレーション主義の破廉恥なメディアに載っける記事を書くわけだから、人目を引く“メディア的な破廉恥さ”とはどんなものかよく考えてみよう」と鼓舞し(?)、彼らに生まれて初めて商業レベルの――“売文”目的の――まとまった文章を書かせてみる。

すると、かろうじて1割が「おっ」と思えるような、ハタチそこそこにして非常に好戦的で練られた文章を返してくる。

残り9割の凡庸さ

だが残り9割は実に凡庸というか、粋も破廉恥さも「俺の/私の文章をどうにかして人に読ませてやりたい」というたくらみも圧倒的に足りない。大学入試の小論文的な文法がnoteのエントリやインスタ長文投稿に崩れたような、だがボリューム(字数)と序論・本論・結論の単純な運びだけはクリアした、映画やアイドルの退屈な感想文を出してくるのである。

すると、そういったものも優良可不可で成績をつけねばならないから、特別面白い1割は優をあげるにしても、凡庸な感想文にも「才能は感じないが、文章書きのルールは押さえている」との評価で良は出すことになる。

ChatGPTが書いた課題レポート

で、私が試しにChatGPTに、そんな大学授業の課題を書かせてみたら、「ああ、こういうのたくさん提出されてたなぁ」と既視感たっぷりのテキストを生成して返してきた。(詳細は画像1を参照)

【画像1】ChatGPTが生成したテキスト
写真=河崎環
【画像1】ChatGPTが生成したテキスト

「なぜ日本は韓国のボーイズバンドBTSのようなアイドルグループを生み出せないのか:芸術政策と経済的要因の比較」。1200字程度の小論文(エッセー)、特に深い考察や目新しい調査も要らず、この文字数なら“具体性”を追求できるボリュームでもないので、押さえておくべきキーワードを漠然とした関連性で並べ、「○○が問題となっている」と言いながら解決策を提示せずに「新たなビジネスモデルの模索が必要である」と結論する。

そうですね模索が必要ですよね、だから新たなビジネスモデルってどんなのか教えてよ、と思うわけであるが、小論文サイズなのでまあここまで書けば及第点かな、うまくもないし感心もしないけど、と、「ちゃんと忘れずに課題を提出したこと」をうっかり評価して「良」をあげてしまいかねない整いようだ。

これ、要はプロンプトを出す側が、あらかじめ「もし自分が書くなら」と、押さえておくべき用語、扱うべき論点、全体の論の運びと着地点が見えていて、それらを包括した適切なオーダーを出せるなら、かなりの満足度で仕上がってくるということなのだろう。

それから大事なのが、これがアカデミックライティングという定型であること。

ChatGPTは、定型をなぞるのはとても上手なのだ。定型を持たない小説や暮らしエッセーなどのクリエーティブライティングになってくるといまいち面白くないのは、やはり今すでに世の中に存在するものを材料としてしか生成できず、また人間社会に対してかすかでも危険や挑戦を突き付けず順応的であるように設計された「いい子」ゆえなのだろう。

自分の思考を受験勉強のような正解に近づけることや、なんならその正解を無思考に暗記することばかり繰り返してきたような思考力のない学生、オリジナルでない学生は正直その時点でChatGPTに勝てていない……。

先学期も親心から乱発した「良」の数をぼんやりと思い浮かべながら、そんなことを考えた。

「非情なほどに、恐ろしいほどに破壊的」

さて、プロンプトの出しようによってはまあまあなクオリティーで返してくる対話型AIは、世間が憂うように、もしかして人間の仕事を世の中から駆逐してしまうのか。もう我々はほぼ全員AIに代替され、存在意義を失って映画「マトリックス」の人間電池になるしかない運命なのか?

「80年代からIT業界を見続けてきた」という米国ZDNETの編集者、デイヴィッド・ゲワーツ氏は、ChatGPTリリース後2月時点の記事で、これまでのインターネット的発明――出会い系サイトとしても有名だった掲示板Craigslist、アマゾン、Uber、Airbnb、Google、Facebook、Spotifyなど――と比較してなお、

「ChatGPTは破壊的(disruptive)だ。非情なほどに、恐ろしいほどに」

と「衝撃で首筋の毛を立てながら」結論している。

Just how big is this new generative AI? Think internet-level disruption” ZDNET Feb. 27, 2023

「誰にも嫌われないコメンテーター役」には最適

だが米国『WIRED』誌は、ChatGPTの“知性”の仕組みについてこう指摘する。

ChatGPT(や、並び称されるGoogle Bard)は実際には何も知らない。けれどこの言葉の次にはどの言葉が来るべきかということを判断するのは長けていて、それがある程度の到達レベルに来ると本物の人間の思考や創造性のように見え始めるのだ。


ChatGPT and Bard don't really “know” anything, but they are very good at figuring out which word follows another, which starts to look like real thought and creativity when it gets to an advanced enough stage.

How ChatGPT and Other LLMs Work―and Where They Could Go Next” WIRED Apr. 30, 2023

つまるところ、生成AIはパターン思考の繰り返しによるアウトプットを出すだけで、本来クリエーティブなわけではない。

失言せず、どこかから拾ってきた当たり障りのないことをきれいに整理して言うことが生来的に得意だから、何か事件が起こったとき、ワイドショーの尺を埋める「清潔感があって誰にも嫌われない上に視聴者の手軽な歓心を買うことのできるコメンテーター」役なんかにはとてもいいかもしれない。

では、テキスト生成AIが商売敵となるであろうと容易に考えられる各種“ライター”たちはどう感じているのだろう。

ChatGPT生成レベルの平凡な文章がかろうじて書けるような層は、当然淘汰とうたされるだろう。だがこれまで自分たちの個性と技術を磨いてテキスト(プログラムを含む)を提供することを生業なりわいにしてきた人々、自らのクリエーティビティーに自信というより自覚がある彼らの多くは「個人的には脅威を感じない」と考える人が多い。

ライターである私個人も、人間が書く文章の面白さや“味”というのは、AIなら起こさない「いい破綻」や「癖」、突然さしはさまれる転調のような思考の「飛躍」の部分にあると考えている。

人間というナマで不確かな存在にひも付く、少々変調した(狂った)オリジナリティー。破綻や癖や論理的飛躍を排除して生成される、通り一遍の整った文章に感動はない。生きているとは、制御外に飛び出すということだ。

「死んだ昆虫標本を並べているようなもの」

NIKKEI Financial(日経フィナンシャル)のエッセー『知の旅、美の道 世界の文学事情』で、翻訳家の鴻巣友季子氏は「ユートピアかディストピアか、文学界とAI翻訳」と題し、ChatGPTが得意であるとされている機械翻訳文の特徴を、さすがのメタファーで捉えている。

「話の筋は通っているように見える。とはいえ、この訳文の致命的な欠点は、原文の語調や、夫婦の口調(妻は若くて幼い)、倦怠けんたい期の危機にある夫婦の機微を読み取って訳出できていないことだ。」

「この作家(ヘミングウェイ)は『氷山理論』というものを提唱したことでも知られる。氷山は水面上に見えている部分は8分の1にすぎず、水面下の見えない部分が8分の7を占める。小説もそのように書くべきだというのだ。書かれていない部分や、行間、ニュアンスというものを読者に読ませなくてはならない。」

「翻訳はいうなれば言葉を『生け捕り』にする作業だ。AIは何十億という訳語の既存サンプルから適合確率の高いものを引っ張ってくる。しかし、すでに使われた訳語ばかりを使って翻訳するというのは、死んだ昆虫標本を並べているようなものなのだ。AIには、だれも使ったことのない訳語や表現を採択することは現状できない。」

死んだ昆虫標本!

姿は整い、美しいが「生きてはいない」。体温を失い、脈打たず、生命の光がなく、飛んで去ることもない「死骸」。ChatGPTの進化に代替あるいは淘汰されるのは、まさにそういうものであり、人なのじゃないか。

とりあえず今回、ChatGPTに大学授業のレポートを書かせてみたら私大文系学部ではうっかりB+(良)を出しかねないレベルだったので、学生には「死骸を書くな、死骸になるな」と指導しようと心に決めた。