見出し画像

How AI can distort human beliefs

Chat GPTなどの人工知能(AI)モデルを使用する際に、慣例的に含まれるバイアスを含んだ回答や、間違った情報をユーザーが信じ込んでしまうことで、人間の思考形成が歪められる恐れがあるという記事が6月22日号のScience誌に掲載された。

https://www.science.org/doi/10.1126/science.adi0248

これらの傾向は、特に知識が未熟で発達段階にある子どもに影響が及びやすく、注意が必要であると啓発されている。

人間同士のコミュニケーションは、言葉による情報そのものだけでなく、相手の表情や繊細な言い回し、個人の持つ経験や知識、会話の流れから得られる微妙な意味合いなど、多くの複雑な情報をお互いが読み取ることで成立している。

日々の膨大な情報交換の中で、自分の中に相手から受け取る情報の判断材料が乏しいとき、たとえ大人であっても、取捨選択することなく相手の主張をそのまま吞み込んでしまうという傾向はないだろうか。子どもにとってはそれがなおさらだ。さらに今回はその相手というのが、圧倒的なデータ量と緻密に計算された回答を提供するのに秀でたAIということであるのだから、子どもにとっては提供される情報に何の疑う余地もない。こうした誤った情報などが個人個人の思考の一部として定着してしまう前に、我々はどのように対処すべきなのか。

それには、生成AIというものの仕組みを理解し、科学者、政策立案者らの立場からも警鐘を鳴らしていくことが重要だ、と誌上で提言されている。人間中心のAI社会原則が議論される今、忘れてはならない課題である。

また同論文は、6月23日付の朝日新聞デジタル上でも紹介された。ぜひ多くの方に目を通してもらいたい。

                      文:Science Japan Office