AIの答えは、なめらかでも正しいとは限りません。

この記事で得られる視点

  • AIの間違いを、性格ではなく仕組みから見る
  • データや目的の曖昧さが答えに影響すると分かる
  • 確認すべき場面を見分ける感覚を持つ

いま何を扱うか

この記事では、AIが間違える場面を、怖がるためではなく使い方を整えるために見ます。

扱うのは次の3つです。

  • 学習した材料の影響
  • 目的が曖昧なときのずれ
  • 確認が必要な場面

学習した材料に引っぱられる

モデルは、学習で見た例から答え方を作ります。

そのため、見た例が古かったり偏っていたりすると、答えもその影響を受けます。

また、知らないことでもそれらしく続けようとすることがあります。

人間のように「これは知らない」と必ず止まるわけではありません。

目的が曖昧だと、ずれた答えになりやすい

AIに頼むとき、目的が曖昧だと、もっともらしいけれど使いにくい答えが出ることがあります。

誰向けなのか、どこまで正確さが必要なのか、何に使うのか。

こうした前提が足りないと、AIは平均的に見える答えへ寄せます。

間違いというより、使う側の狙いと合っていないずれが起きるわけです。

確認が必要な場面を分ける

AIの答えは、下書き、整理、候補出しには役立ちます。

一方で、法律、医療、お金、安全、移ろいやすい情報、他人に影響する判断では確認が必要です。

数字、固有名詞、日付、出典もそのまま信じず、別の方法で確かめるべきです。

AIを使う力には、答えを作らせる力だけでなく、答えの扱い方も含まれます。

つまずきやすいところ

  • なめらかな文章を、正確さの証拠だと思ってしまう
  • AIが自信ありげに答えたら、根拠も確認済みだと思ってしまう
  • 目的を伝えずに、期待どおりの答えが出ると思ってしまう