事象の不自然さを認識して対処できるChatGPT
私自身の仕事でもChatGPTの用途を考えてみました。例えば、採用面接の質問案を作成するのにChatGPTを役立てられないでしょうか。
まずは研究者に対して転職理由を尋ねる質問案の作成を依頼したところ、「どのような研究業績を持っていますか」といった、納得感のある一般的な質問を作ってくれました。
続いて、少しずつ指示を変えてみます。今度は研究者から研究者への転職ではなく、医師から占い師への転職者に対する質問案を考えてもらったのですが、このような転職は一般的ではないため詳しい検討が必要だという補足がありました。つまり、医師から占い師への転職は不自然だと認識しているわけです。
そこでChatGPTの能力を試してみようと、他にも不自然な設定の質問をしてみたのですが、倫理に反する場合には「不適切」だと返してきました。このように倫理的な観点も備えているのは、AIとして好ましい姿だと思います。
なぜChatGPTは「不自然さ」を認識・対処できるのか
ChatGPTの処理では、GPT-3.5およびGPT-4と名付けられた大規模言語モデルを使用しています。その名のとおりAIの学習に使用するデータは大規模で、膨大なテキスト情報をもとに、「この文字が並んでいるときは、その後にこの文字が出やすいな」と学んでいるのです。
従来の生成系AIでは、人間が教師データを用意して学習させる必要がありましたが、ChatGPTのモデルは勝手に学習して回答できるようになります。そのためインターネット上で類似の情報が多いほど一般的で確からしいと考え、逆に少なければ一般的ではなく、回答の中で注意が必要だと判断しているのでしょう。
インプットが大規模だからこそ誤った情報が淘汰されて正しい情報が残るわけですが、加えて回答に対するユーザーのフィードバックを基に精度を高めているのが、ChatGPTの特徴です。研究者としては人間の知を入れないアルゴリズムで完結させたくなりますが、その気持ちを抑え、人間とともに最適解を求めようという発想に至ったことが今日の結果に結びついていると言えます。