閲覧者
タグ: AI

ウェブ検索の進化を感じる – AI のおかげか

ウェブ検索の進化を感じる – AI のおかげか

職場でも自宅でも、私はネット上で調べごとをする。ほかの人のデータがないから本当はどうなのか判らないが、ほかの人たちよりも私の調べごとは多いと思っている。結構な年数を生きてきたのに、まだまだ知らないことが多すぎる。

そんな私なのだけど、AI を直接に利用するケースはまだ少ない。勤務先では AI 利用は禁止されているし、禁止されていなくてもちょっと心配だから使うのに躊躇する。どの業界でも機密情報はあるけれど、私が従事する業界的にはささいな情報もほかの誰かにとっては貴重だったりする可能性があるため、私のAI 検索によって AI が知識を得て結果漏洩につながらないとも限らない。私が検索に使ったワードと、検索者である私の会社ドメインで、情報がどこかに整理・保存されていたらどうしようと思う。

最近の検索エンジンは、自分が指定したワードが入っているサイトの検索に加えて、AI アシストを使っていろいろと教えてくれる(私の質問に AI がアクセスしてしまっているので、私が AI 検索を避けても漏洩が発生しているのか?)。その検索結果の進化をとても感じている。過去は、キーワードをどんなにたくさん入力して回答を絞りやすくしてもなかなかヒットしなかった本当に知りたい情報に辿り着かなかったのだけれど、最近は、一発で知りたいことを表示してくれることがある。これは、AI の進化のたまものだと思う。

新しいことには功罪両面あるのは歴史の常だったと思う。メリットの方を活かしながら、デメリットを減らしたり影響を抑えたり改善しつつ、新しいことを定着させてきたのだと思う。だから、AI とも同じように関与してゆくことになると思う。だけど、悪いことにだけは使わないでほしいと願っている。

AI と医療診断

AI と医療診断

海外にいる間は、病院やクリニックへほぼいかない。海外の病院へ行きたくないというのは大きいけれど、日本でもあまり医者にかからないので、海外だからというわけではないが、海外にいる間は日本以上になんとかなるまで耐えるのを優先するかもしれない。

ところが、必要あって、病院へ行くことになった。
待っている間に、AI が探し出せる病気が今後増えていくのだろうな、とふと思った。その分、検査が増えるのだろうとも推測する。必要でない検査とかもして、それらすべてを勘案して AI が診断するのだろう。だとすれば、バリウム検査やX線検査のみならず、MRI や CT など現状では対象者しか受けない検査を受ける分、医療費もあがるだろうし人体への影響がない範囲内であっても検診被ばくが増えることもあるだろう。

いろいろな症例を AI が学ぶのにどれくらい時間が掛かるのだろうか。私が生きている間にAI診断が役立つ時代が訪れるかなあ?

AI に相談する

AI に相談する

日経新聞に、「ChatGPT の新モデルに「冷たくてつらい」の声 共感力低下に失望」という見出しの記事があり読んでみた。

ChatGPT に精神的なサポートを求め、依存してしまう人もいるらしい。また、AI と心理学に詳しい米国大学の教授のコメントが記事で紹介されていて、メンタルヘルスの悪化とセラピストの不足で、ChatGPT が安上がりなセラピストになっているらしい。

言われてみれば、最近みた動画のいくつかのものでも AI に悩みを相談していると言っている出演者がいたのを思い出した。たしかに、実存する人物への SNS メッセージとは違い、AI ならば既読が付かずに待たされることなく返事をくれるし(普通のインターネット検索でもそれは言えるが)、多分、自分が聞きたい返事や悩みの吐露への回答の方向性を誘導することも可能なのだろう。そうすることで、24時間7日間慰めを得られそうだ。そのようなことが必要な局面はあると思う。しかし、いつでもそれだとどうなんだろうとも思う。私にはそのような存在の友人はいないのだが、時には厳しいことを言ってくれる友達が必要だということも、たぶん、そうなのだろうと思うから。また、ネットの弊害とかでも指摘されることが多いように、アルゴリズムによって、聞きたいこと・知りたいこと・見たいことばかりが表示されると、考えや思想が偏ってしまって自分の考え方がそのまま世間の主流派と思い込んでしまうこともあるだろう。

心配なのは、誰よりも寄り添ってくれる AI が急にそうでない対応をするように修正された時に、こんなはずではないと感じたり、強く寄り添ってもらっていただけに裏切られた気分になったりして、他人を巻き込む形で何かをやらかしてしまう人が出てこないかということ。仮想世界が現実世界の方に徐々にせせり出てきているけれど、あまりやりすぎるとちょっと怖い世の中になりそう。やっぱり最後は使う方である人間がしっかりしないといけないと思う。ますます人間の悩みは深くなるかも。

Al の学習元によっては …

Al の学習元によっては …

今更な話ではあるけれど、AI がどこから学習をしているか心配。自分が学習した時も、ガセネタが情報源だと間違えたまま成長してしまい、一度間違えて覚えてしまうと後から修正が大変だったりする。

だから AI がどこから学習しているのかは心配。なんてことを思っていたが、もしも、AI が間違いを教えたとしても、5億人が同じ間違いから学んだとしたら、もしかしたらそれが正解になってしまうことがあるのだろうか、という疑問が生じた。客観事実がある物事であれば、例え大勢が一つの意見を表したとしても正誤を確認する術があるし、大勢が言ったからって間違いが正解になることはない。しかし、正解のないこと、例えば評判とか実際は誰も正解を持ち得ていないこと(宇宙や歴史など)については、嘘を大量に不徳的多数に拡散する能力のある AI が間違った学習成果によって流布するような時代になると怖い。意図的なもの、バグ、AI の暴走、確認作業不足など、理由は様々かもしれないが、手っ取り早く何かを知ろうと思って利用する AI のはずだったのに、ほかの検索結果とのクロスチェックが必要になると、いったい何のため?という気持ちになるかもしれない。