Al の学習元によっては …
今更な話ではあるけれど、AI がどこから学習をしているか心配。自分が学習した時も、ガセネタが情報源だと間違えたまま成長してしまい、一度間違えて覚えてしまうと後から修正が大変だったりする。
だから AI がどこから学習しているのかは心配。なんてことを思っていたが、もしも、AI が間違いを教えたとしても、5億人が同じ間違いから学んだとしたら、もしかしたらそれが正解になってしまうことがあるのだろうか、という疑問が生じた。客観事実がある物事であれば、例え大勢が一つの意見を表したとしても正誤を確認する術があるし、大勢が言ったからって間違いが正解になることはない。しかし、正解のないこと、例えば評判とか実際は誰も正解を持ち得ていないこと(宇宙や歴史など)については、嘘を大量に不徳的多数に拡散する能力のある AI が間違った学習成果によって流布するような時代になると怖い。意図的なもの、バグ、AI の暴走、確認作業不足など、理由は様々かもしれないが、手っ取り早く何かを知ろうと思って利用する AI のはずだったのに、ほかの検索結果とのクロスチェックが必要になると、いったい何のため?という気持ちになるかもしれない。