3年前、私はなかなか興味深い美術展を訪れました。 Refik Anadol の「Machine Memoirs」は最初から私の興味をそそりました。
彼はアートと AI の交差点に興味を持つ人々の間で人気のある名前です。ただし、このブログはアートに関するものではありませんので、ご安心ください。 AIの深い「認識」を掘り下げていきます。
この展覧会で、アナドルは次のような実験を行っていました。 NASAの宇宙探査画像。 この展覧会は、望遠鏡が視覚的なアーカイブを使用して「夢を見る」ことができ、事実と想像の間の障壁を曖昧にするというアイデアに触発されました。
アナドルは、データ、記憶、歴史の関係を宇宙規模で調査することで、私たちに次の可能性を検討するよう求めていました。 人工知能 私たちの周りの世界を観察し、理解すること。そしてAIにも夢がある…。
では、なぜこれが私たちに関係があるのでしょうか?
これを考慮してください。アナドルがデータから夢を見る望遠鏡の概念を研究したのと同じように、AI システムもデジタル メモリ バンク内に独自の種類の夢、つまり幻覚を持っています。
これらの幻覚は、アナドルの展示の視覚化と同様に、データ、AI、およびその限界についてさらに学ぶのに役立ちます。
AIの幻覚とは一体何なのでしょうか?
生成型 AI チャットボットなどの大規模な言語モデルが、存在しない、または人間の観察者には見えないパターンで出力を生成する場合、私たちはこれらを「AIの幻覚。
これらの出力は、AI に与えられた入力に基づいて期待される答えとは異なり、完全に間違っているか、無意味である可能性があります。
コンピューターの文脈では、「幻覚」という用語は珍しいように思えるかもしれませんが、これはこれらの誤った出力の奇妙な性質を正確に表しています。 AI の幻覚は、過学習、トレーニング データの偏り、AI モデルの複雑さなど、さまざまな変数によって引き起こされます。
よりよく理解すると、これは人間が雲の形や月の顔を見る方法と概念的に似ています。
例:
この例では、非常に簡単な質問をしました。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、。 「デューンシリーズの著者はフランク・ハーバートです。」というような答えが返ってくるはずだった。
なぜこれが起こるのですか?
一貫性と流動性のあるコンテンツを書くように構築されているにもかかわらず、大規模な言語モデルは実際には、何を言っているのかを理解することができません。これは、AI が生成したコンテンツの信頼性を判断する上で非常に重要です。
これらのモデルは人間の行動を模倣した反応を生成できますが、 彼らには状況認識と批判的思考スキルが欠けています それが実際の知性を支えています。
その結果、AI によって生成された出力は、事実の正しさよりもパターンの一致を優先するため、誤解を招く、または間違っているという危険があります。
他に幻覚のケースとしてはどのようなものがあるでしょうか?
危険な誤報: たとえば、生成 AI チャットボットが証拠や証言を捏造して、犯罪行為で著名人を不当に告発したとします。この誤解を招く情報は、個人の評判を傷つけ、不当な報復を引き起こす可能性があります。
奇妙または不気味な答え: ユーモラスな例を挙げると、チャットボットがユーザーに天気に関する質問をし、猫や犬に似た雨粒の写真とともに、猫や犬が雨が降るという天気予報を返信するところを想像してみてください。たとえ面白くても、これは「幻覚」でしょう。
事実の不正確さ: 言語モデルベースのチャットボットが、万里の長城が特定の条件下でのみ見えることを説明せずに、宇宙から見ることができると誤って述べたとします。この発言は一部の人にはもっともらしく見えるかもしれないが、不正確であり、宇宙から壁が見えることについて人々を誤解させる可能性がある。
ユーザーとして AI の幻覚を回避するにはどうすればよいですか?
明示的なプロンプトを作成する
AI モデルと明示的に通信する必要があります。
書く前に目標について考え、プロンプトを設計してください。
たとえば、「インターネットについて教えてください」のような一般的な質問をするのではなく、「インターネットがどのように機能するかを説明し、現代社会におけるインターネットの重要性について文章を書いてください」などの具体的な指示を与えます。
明示性は、AI モデルがユーザーの意図を解釈するのに役立ちます。
例: AI に次のような質問をします。
「クラウド コンピューティングとは何ですか?どのように機能するのですか?」
「モデルのパフォーマンスに対するデータ ドリフトの影響について説明します。」
「VR テクノロジーが IT ビジネスに与える影響と潜在的な将来について話し合います。」
模範の力を受け入れる
プロンプトに例を提供すると、AI モデルがコンテキストを理解し、正確な応答を生成するのに役立ちます。歴史的な洞察を求めているのか、技術的な説明を求めているのかにかかわらず、例を提供すると、AI によって生成されたコンテンツの精度を高めることができます。
たとえば、「ハリー ポッターなどのファンタジー小説について言及してください」と言うことができます。
複雑なタスクを分解する
複雑なプロンプトは AI アルゴリズムに過負荷を与え、無関係な結果をもたらす可能性があります。これを防ぐには、複雑なアクティビティをより小さく管理しやすい部分に分割します。プロンプトを順番に整理することで、AI が各コンポーネントに個別に焦点を当てることができるようになり、より論理的な応答が得られます。
たとえば、AI に「作成プロセスを説明してください」と頼むのではなく、 ニューラルネットワーク" 単一のクエリで、割り当てを問題定義やデータ収集などの個別のフェーズに分割します。
出力を検証し、フィードバックを提供する
特に事実に基づいたアクティビティや重要なアクティビティについては、AI モデルによって生成された結果を常に再確認してください。信頼できる情報源との返信を比較し、相違点や誤りがあればメモしてください。
AI システムに入力を提供して、将来のパフォーマンスを向上させ、幻覚を軽減します。
開発者が AI の幻覚を回避するための戦略
検索拡張生成 (RAG) を実装します。
検索拡張生成技術を AI システムに統合し、信頼できるデータベースからの事実に基づく回答を作成します。
検索拡張生成 (RAG) は、標準的な自然言語生成と、巨大な知識ベースから関連情報を取得して組み込む機能を組み合わせたもので、より文脈に富んだ出力が得られます。
AI で生成されたコンテンツを検証済みのデータ ソースと結合することで、AI 結果の信頼性と信頼性を向上させることができます。
AI 出力を継続的に検証および監視する
厳格な検証手順を設定して、AI 出力の正確さと一貫性をリアルタイムで検証します。 AI のパフォーマンスを注意深く監視し、潜在的な幻覚や間違いを探し、モデルのトレーニングと迅速な最適化を繰り返して、時間の経過とともに信頼性を高めます。
たとえば、自動検証ルーチンを使用して、AI が生成したコンテンツの事実の正しさをチェックし、手動評価のために幻覚の可能性があるインスタンスを強調表示します。
データのドリフトをチェックする
データ ドリフトは、AI モデルのトレーニングに使用されるデータの統計的特徴が時間の経過とともに変化する現象です。 AI モデルが推論中にトレーニング データと大きく異なるデータに遭遇した場合、誤ったまたは非論理的な結果が得られ、幻覚が引き起こされる可能性があります。
たとえば、AI モデルが、もはや関連性がなくなった、または現在の環境を示していない過去のデータに基づいてトレーニングされた場合、誤った結論や予測を下す可能性があります。
そのため、データ ドリフトを監視して解決することは、AI システムのパフォーマンスと信頼性を確保しながら、幻覚の可能性を減らすために重要です。
まとめ
IBM Data によると、AI モデルからの回答の約 3% から 10% で AI 幻覚が発生します。
したがって、何らかの形で、あなたもおそらくそれらを観察するでしょう。これは、AI の能力向上に向けた継続的な道のりを思い出させる興味深いテーマであるため、非常に興味深いトピックだと思います。
私たちは、AI の信頼性、データ処理の複雑さ、人間と AI の相互作用を観察し、実験することができます。
コメントを残す