第9回『ChatGPTと文章』

ツイッターでツイート
フェイスブックでシェア
ラインでシェア

ページID1054728  更新日 2023年6月16日

印刷大きな文字で印刷

 今日、対話型AI「チャットGPT」の名を頻繁に耳にするようになりました。本県においてもその利活用について協議が進んでいます。
 「チャットGPT」は、日本でも昨年11月に一般公開されましたが、公開直後、AI研究の第一人者で、現在政府の「AI戦略会議」で座長を務めておられる松尾豊東京大学教授と県内のホテルの控え室で20分ほどお話をさせて頂く機会がありました。
 松尾教授によりますと「チャットGPTはこれまでのAIとは全く次元が違います。私も今後どのように進化するのか想像できません。」また、「対話は英語が基本です。日本語で対応できますが、言語として翻訳されたものではないのです。」とのことでした。
 はたして、この生成AIは人間のような感情の機微を認知するのでしょうか。
 人の世では、伝えるデータは同じでも、受け取る側の捉え方が異なる場合があります。逆を言えば伝える側の意思が表現に現れます。嘘ではなくても恣意的な誘導が可能になります。
 ですから公的要素の高い情報提供は相当な注意が必要なのです。
 「性格に難がある」、「頭が切れる」という人物像を「彼は性格に難があるが、頭が切れる」と「彼は頭が切れるが、性格に難がある。」とするのでは、同じ要素でも受ける印象が大きく異なります。また、
彼は「私の申し上げたいことは以上です。」と強調した。
彼は「私の申し上げたいことは以上です。」と語気を強めた。
彼は「私の申し上げたいことは以上です。」と語気を荒げた。
伝え手の主観によって、受け手の捉え方が随分と変わります。
 チャットGPTの書く文章は、膨大なデータから、前後のつながりを重視して構成されていくとのことです。「善意」でも「悪意」でもその情報が多い方に傾き、それが真実になりうります。
 事実の誤りは指摘し、修正できますが、意思はそれができません。AIに意思が宿るとすれば、善意の情報を与え続ける「情操教育」が必要なのでしょう。


ChatGPTの画像

新聞の画像