2023年6月11日日曜日

学びの本質を問う 〜ChatGPTの教育利用と見せかけの理解にだまされないために〜

 

対話型AIChatGPTが近年、大きな注目を集めています。このAIは非常に自然な文章生成を実現し、人間が投げかける質問の意図を理解しているかのように反応してくれます。さらにその応用範囲は驚くほど広く、翻訳から数学問題の解答、プログラム作成、さらには小説の執筆までこなすことが可能となります。専門的なプログラム言語での指示を必要とせず、日常の自然言語で指示を出すだけでAIが適切に応答してくれるため、これによりAIとのコミュニケーションが一層簡単になりました。

 

ChatGPTは自然な言語を生成する能力と、人間が求めた答えを追求する能力の二つの側面を持ち合わせているようです。これは具体的な文脈に応じて適切な言葉を使用し、あたかも相手の意図を理解しようとする姿勢を示しています。これらの特徴は今後の教育現場におけるAIの活用において大いに期待できる要素といえるでしょう。

 

しかし、AIはこの人間が意図することを、本当に理解しているのでしょうか?

 

対話型AIChatGPTが教育現場でどのように扱われるべきか、大きな議論のテーマとなっています。ちょっと前にもある小学生がChatGPTを使って読書感想文を書いたという事例が話題となりました。この子は、この新たなツールに興味津々で手を伸ばしたのでしょう。その担任は、「書き方を模倣するだけでも学習になる」とAIの利用を認めていました。ただし、単に文章を書き写すだけでは、真の学習にはつながらず、それだけでは不十分でしょう。書き手の意図をもって修正するプロセスこそが学びであり、成果物である読書感想文を完成させることが教育の目的ではないからです。

 

しかし、今やこのAIの普及という流れを止めることは困難といえます。ここで重要なことは、教育の本質を見失わないことです。学びは本来、自己向上のためのプロセスであり、それは個々の自己責任によって進められるべきです。chatGPTの規制があっても抜け道を探す生徒や学生たちの行為や、規則を破ろうとする欲求は、人間の持つ自然な傾向です。結果として、その行動が自身に損をもたらすかどうかは、個々の判断に委ねられることとなります。もし、AIの活用が取り組むべき作業を楽にし、それが良いと感じるなら、それもまた一つの選択肢となるかもしれませんが。

 

『世界』20237月号で紹介された対談「わかりたいヒトとわかっているふりをするAI」には、慶應義塾大学教授の今井むつみさんと言語学者兼作家の川添愛さんの間で行われ、AIの能力とその限界についてこれらの深い洞察が語られていました。

 

大規模言語モデルであるChatGPTは、ネット上から取得した膨大な文章データを学習し、「この単語の次にはどんな単語がくるのか」を予測します。それにより、私たちはAIが我々の要求を理解していると感じますが、chatGPTは単に機械が膨大なパターンを学習して、そのパターンを再現しているだけです。実はChatGPTには個々の単語の意味を理解する能力がありません。それよりは、繰り返し指示を受け、回答された文章が望ましいものに近づくように微調整することで強化学習を行っているだけのことです。

 

重要なことは、このAIが「意味論」、つまり言葉と現実世界を関連付けるレベルの理解を持たないという点です。それは単に単語を自然に並べ、人間の質問の意図に合った答えを生成するだけです。ただし、この非対称なプロセスがなぜうまく機能しているのかは、興味深いところですが。

 

古くから「AIは身体が必要だ」という主張があります。これは学習には五感と身体を通じた経験が必要であるという意味です。AIの進化と可能性を理解するためには、これらの違いを理解し、人間とAIがどのように異なるかを認識することが重要です。この認識はAIをより効果的に利用し、その限界を認識する上で重要となるのです。★

 

例えばヘレン・ケラーの学習過程は、現在のAIを理解するための示唆に富むエピソードです。彼女がポンプから出る冷たい水に触れた瞬間、「water」という指文字で学んでいた綴りが実際の水を表していることを理解した瞬間です。それまでの彼女の状況は、現在のchatGPTの状況とよく似ています。つまり、言葉が何かを表すものであるというメタ的な認識を持てていなかったのです。

 

ChatGPTは、人間がある問題を解決するためにどのような論理的な考え方を経てきたかを理解する能力を持っているように見えます。しかし、これは単に大量のデータから得た手がかりを使って、人間が次に何を期待するかを予測しているだけにすぎません。chatGPT自体が人間が答えた通りの推論を内部で行っているわけではありません。

 

人間が意図を理解するとき、私たちは文化的な慣習や常識を適用し、言葉以外の情報も大量に動員して理解を深めることが必要なのです。しかしchatGPTのようなAIは、この人間固有の推論過程を持つことは今のところできていません。言葉と実世界の間の深いつながりを理解し、体験する能力がAIにはないからです。AIの進化と可能性を理解するためには、このような人間とAIの間の基本的な違いを理解することが重要なことなのです。

 

子どもたちに対しては、ChatGPTのようなAIが答えを全て持っているという誤った認識を育てないように注意が必要です。子どもたちが自分自身で思考し、直感を育む能力を阻害する可能性があるからです。一方で、十分なスキルと知識を持つ人々にとって、ChatGPTは作業効率を大幅に向上させる道具となることでしょう。しかし、その使い方によっては、AIは諸刃の剣ともなりうるということを忘れてはなりません。これらのことを踏まえ、我々はAIを適切に使いこなすための理解と教育が必要だと言えます。そして、その過程でAIがどのように人間による制御を受けているかを常に意識することが重要となっていきます。

 

みなさんはどのようにAIの活用/禁止を考えていますか。よかったら教えてください。

 

 

 

★「記号設置問題」

言語を学ぶときには、生活を通して感覚と共に獲得することを「記号設置問題」といいます。具体的な感覚と抽象的な記号体系がどうつながっているのかを明らかにしようとする試みです。人間は、物事を感じ取ることなく学習することは基本的にできません。人間は日常的に数を表す言葉を使いますが、その実体を直接視覚化することはできないのです。

 

例えば、「五つのリンゴ」や「三つのアメ」など具体的な物体を数えることは可能ですが、""そのものを視覚的に捉えることはできません。""は具体的な物体から抽象化された概念です。初期の学習は、感覚に基づく知覚から始まりますが、それから推論を用いて、単一の記号の意味だけでなく、記号全体が形成するネットワークや文法を自己発見していきます。3歳から5歳の間に、子どもたちはすでにかなりの知識体系を築き上げます。自分で発見するからこそ理解し、納得できます。これは「記号設置」という考え方の一部であり、それは自分が何を学び、どのように学び、そしてなぜ学んだのかを理解する過程を含んでいます。この自己発見と理解の過程はAIにとって高いハードルとなります。AIは抽象的な概念を理解し、それを自己の経験や知識と結びつける能力を持たないからです。それは、人間が経験から学び、新たな知識を作り出す能力があることと対比しているのです。

 

 

 

 

 

0 件のコメント:

コメントを投稿