Browsed by
Tag: AI

AI に相談する

AI に相談する

日経新聞に、「ChatGPT の新モデルに「冷たくてつらい」の声 共感力低下に失望」という見出しの記事があり読んでみた。

ChatGPT に精神的なサポートを求め、依存してしまう人もいるらしい。また、AI と心理学に詳しい米国大学の教授のコメントが記事で紹介されていて、メンタルヘルスの悪化とセラピストの不足で、ChatGPT が安上がりなセラピストになっているらしい。

言われてみれば、最近みた動画のいくつかのものでも AI に悩みを相談していると言っている出演者がいたのを思い出した。たしかに、実存する人物への SNS メッセージとは違い、AI ならば既読が付かずに待たされることなく返事をくれるし(普通のインターネット検索でもそれは言えるが)、多分、自分が聞きたい返事や悩みの吐露への回答の方向性を誘導することも可能なのだろう。そうすることで、24時間7日間慰めを得られそうだ。そのようなことが必要な局面はあると思う。しかし、いつでもそれだとどうなんだろうとも思う。私にはそのような存在の友人はいないのだが、時には厳しいことを言ってくれる友達が必要だということも、たぶん、そうなのだろうと思うから。また、ネットの弊害とかでも指摘されることが多いように、アルゴリズムによって、聞きたいこと・知りたいこと・見たいことばかりが表示されると、考えや思想が偏ってしまって自分の考え方がそのまま世間の主流派と思い込んでしまうこともあるだろう。

心配なのは、誰よりも寄り添ってくれる AI が急にそうでない対応をするように修正された時に、こんなはずではないと感じたり、強く寄り添ってもらっていただけに裏切られた気分になったりして、他人を巻き込む形で何かをやらかしてしまう人が出てこないかということ。仮想世界が現実世界の方に徐々にせせり出てきているけれど、あまりやりすぎるとちょっと怖い世の中になりそう。やっぱり最後は使う方である人間がしっかりしないといけないと思う。ますます人間の悩みは深くなるかも。

Al の学習元によっては …

Al の学習元によっては …

今更な話ではあるけれど、AI がどこから学習をしているか心配。自分が学習した時も、ガセネタが情報源だと間違えたまま成長してしまい、一度間違えて覚えてしまうと後から修正が大変だったりする。

だから AI がどこから学習しているのかは心配。なんてことを思っていたが、もしも、AI が間違いを教えたとしても、5億人が同じ間違いから学んだとしたら、もしかしたらそれが正解になってしまうことがあるのだろうか、という疑問が生じた。客観事実がある物事であれば、例え大勢が一つの意見を表したとしても正誤を確認する術があるし、大勢が言ったからって間違いが正解になることはない。しかし、正解のないこと、例えば評判とか実際は誰も正解を持ち得ていないこと(宇宙や歴史など)については、嘘を大量に不徳的多数に拡散する能力のある AI が間違った学習成果によって流布するような時代になると怖い。意図的なもの、バグ、AI の暴走、確認作業不足など、理由は様々かもしれないが、手っ取り早く何かを知ろうと思って利用する AI のはずだったのに、ほかの検索結果とのクロスチェックが必要になると、いったい何のため?という気持ちになるかもしれない。