日誌

生成型AIとどう付き合う?

 4月17日のブログで、チャットGPTについて書いてから1か月以上たちましたが、その後も多くの議論が起こっています。携帯電話やスマホの普及で問題が起こった時も、利用を禁じるより賢く扱う方法を一緒に考えてはどうかという意見がありました。生成型AIについても、同様の意見があります。13歳以上18歳未満のチャットGPT利用には、保護者の許可が必要とされています。ですから、高校生の皆さんは、学校の授業で使う場合には保護者の許可がないとほとんどの人はチャットGPTが使えません。ただし、実際には自宅で使えてしまいます。現在のように一人1台、スマホやパソコンを持っている状況では、便利だと広まってしまったものに規制をかけるのは至難の業です。行政や大学などでも対応が分かれていますが、やはり小・中・高の教育現場では、文章力が低下するという危惧が大きいです。ある教育関連企業が実施した調査によると、小学生のおよそ6割が作文に苦手意識をもっているそうです。公務員向けの文章作成講座の講師は、「作文が苦手」な人の割合は大人も変わらないと言っています。要するに、自分で文章を作成した経験値が学校教育や社会人生活でほとんど増えないのが問題で、チャットGPTに文章力を奪われることを気にする前に、学校教育での文章指導の在り方を見直す必要があるということです。

 現在では、まだAIの答えを信用できないので、批判的に受け止める力と間違いを修正する力が必要とされます。ただ、今後かなり早い段階でAIの答えの精度が劇的にあがることが予想されます。その時、私たちに必要とされる力は何でしょうか。そもそも『何を問い、何を解決したいのか』が明確でなければ、AIに聞くこともできません。新学習指導要領の下で、対話的活動が重視されていますが、対話型AIは、やりとりを重ねて子どもが考えを深めることができる相手になれる可能性があります。

 研究でAIは自然言語処理の過程でハルシネーション(幻覚)を起こす可能性があることがわかっています。ハルシネーションとは、もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることです。新井紀子氏(国立情報学研究所社会共有知研究センター長・教授) は「チャットGPTの『答え』が確率と統計に基づくものである限り、正しさについては今後も保証されることはない」「自分がよく知っていることに関する下書きにはチャットGPTは使える。しかし、自分がよく知らないことには使わないほうがいい。高い安全性や信頼性、真実性が必要なことには使ってはいけない。」と警鐘を鳴らしています。

 ダイナマイトは、土木作業に役立つ一方で、兵器に転用されれば人殺しの道具になります。同様にAIも道具です。コンピュータはハード面ソフト面双方で今後も加速度的に発達していくことは間違いないので、うまく付き合っていく方法を前向きに考えていったほうがいいでしょう。皆さんが、進学した時、就職した時、AIによって世の中はどう変わっているでしょうか。そうした変化に対応するためにも、高校時代にできるだけ汎用的能力を磨いてください。

写真の胡蝶蘭は、3月1日の卒業式にいただいたものと、6月1日現在のものです。3か月たつのに、まだこれだけ残っているのはすごいですよね。