Copy

Newsletter by Ximera, Inc. / No.036

AIの安全性を高めるテクノロジー

by Ikuo Morisugi | Ximera Media Next Trends #58

生成AIによるリスクが高まっている現代では、既存ビジネスへの脅威が顕著になっています。特に生成AIにおけるハルシネーション(幻覚)による混乱、記事の自動生成・検索エンジンの信頼性低下やAI動画生成ソリューションの登場など、人間が騙されてしまうフェイクコンテンツの大量氾濫が既に発生しており、今後さらに懸念が増幅されることが予想されます。おまけにアメリカは2024年に大統領選を控え、フェイクコンテンツへの対策の重要度が強く増しています。本稿ではAIのリスクおよびそれに対するソリューションを取り上げ、今後メディアが取るべき対応について示唆を得ることを目的としています。

AIによるリスクが一層高まっている


既に各所で話題となっていますが、生成AIスパムによる既存ビジネスへの脅威が起こっています。例えば既存のパブリッシャーが提供する記事をベースに、生成AIによる記事が大量にポストされ、SEOが進んでしまった結果、パブリッシャーが元々持っていたユーザトラフィックが盗まれています。また生成AIが事象に関するキーワードだけをベースに事実に基づかない記事を自動生成し、それがトラフィックを得て検索結果上位に位置されてしまう事態も起こっています。こうしてオリジナルの記事を提供していたメディア側はトラフィックも奪われてしまった上に、メディアとしての信頼性や検索エンジン結果の信頼性も同時に下がってしまう三重苦の状況が発生してしまいます。

また直近でGoogleやOpen AIが非常にリアリティのある動画をAIで生成できるソリューション(Google LUMIEREOpen AI Sora)をそれぞれ発表しました。まだ一般利用はできないものの、ひとたびこのツールを多くの人たちが利用できるようにすれば効率性・生産性の向上に大きく寄与すると同時に、テキストだけではなく音声・動画も含めた大量のフェイクコンテンツが氾濫することは想像に難くありません。

他にもChatGPTをはじめ、生成AIにはハルシネーションと呼ばれる幻覚症状を起こすことがあります。自社でチューニングしたAIが思い通りの結果を返さないことや暴走したように見える回答をして、炎上してしまうリスクをはらんでいます。AIはあくまで統計的確率論で動いているにすぎないので、トピックによっては論理的には成立してもまったく事実とは異なることを吹聴する場合があります。このことはAIをよく利用する人にとっては共通認識になりつつはありますが、人々が全員同レベルの警戒心を持ってAIに接するのは困難であり、多くの人がAIに騙されてしまうリスクは依然として高く、提供側でも何らかの対策が必要です。

現在AIの急速な普及が進む中でこうした生成AIに対するリスク対応がより重要度・緊急度が増しています。特にアメリカに関しては、2024年11月に大統領選を控えており、すでに予備選挙段階からフェイクニュース対策は非常に重要なテーマとなっています。

AI検証容易性を高める: Guardrails

Guardrails AIは、上記であげたLLMのハルシネーションに対する手段として、LLMアプリケーションの品質を定義し高めるための以下に代表されるオープンソースフレームワーク/ライブラリを提供しています。

  • アプリケーションレベルのカスタムバリデーション*1を作成するフレームワーク

  • プロンプト → 検証 → 再プロンプトのオーケストレーション

  • 複数のユースケースに対応した一般的に使用されるバリデーターのライブラリ

  • LLMへの要件を伝達するための言語の提供


    *1 バリデーション:要件を満たしているかの妥当性を確認すること。それをアプリケーションごとにカスタマイズできること

これらのフレームワークやライブラリによって、これまで手動/独自でやらなければいけなかったLLMの出力結果の検証->チューニングのプロセスが効率化されます。

Guardrailsを利用することで、ユーザとのコミュニケーションでLLMに安心して回答生成を任せられないようなケースを事前にリストアップして検証・対策することができます。

例えば、「AIが自社や競合他社について聞かれても答えを返さないようにする」というルールを適用したい場合、GuardrailsがHubと呼ばれるプリセットの検証(バリデーター)モジュール群を用意してくれており、ここから競合チェックに特化した検証モジュール(Competitor Check)を適用します。これを用いて静的に競合会社の名前をリストアップしておくだけで、AIが競合に関して妙な答えをしないように制御できます。

Guardrailsの概念図 出典: Guardrails


Guardrails Hubの検証モジュールは、単純なルールベースのものから、モデルの問題を検出して軽減するアルゴリズムまで多岐にわたり、2024年2月現在、ハルシネーションやポリシー違反の検出から機密情報や安全でないコードのフィルターなど、約 50 種類が提供されています。このHubについては、オープンソースでかつ誰もが追加・修正できるようになっており、AIの安全性を高める施策がさらにコミュニティで自発的に作られることが期待されています。AIの安全性に対して似たようなツールを提供している会社はNvidiaCalypoAIのように既に多く存在していますが、Guardrailsはオープンソース/クラウドソーシングのアプローチを取っているのがユニークです。

Guardrails AIはビジネスモデルは未だ確立されていませんが、2024年2月にZetta Venturesがリードし、Pear VC、Bloomberg Beta、GitHub Fundなどが参加する750万ドル(約10.5億円)の資金調達を行い、ユースケース・顧客拡大を図ろうとしています。

ディープフェイクへの対抗: Clarity


近年のディープフェイクは技術進化が進み、偽のポルノや捏造された画像/動画など、誤解を招くコンテンツが急増しています。アメリカ人の約66%が意図的に人を欺くために変更されたビデオや画像に遭遇しており、AI専門家のうち62%は、AIコンテンツ生成がニュースの信頼性と真実性を維持する上での最大の課題であると回答しています。

この問題への解決策として、2022年に創業したClarityは、AI操作されたメディアを特定する技術提供を目指しています。Clarityは、ビデオとオーディオの偽造性を特定するためのAIモデルをトレーニングし、アプリとAPIを通じて利用可能なスキャニングツールを提供しています。また、Clarityの利用クライアントが自分のコンテンツが正当あることを示すための正当性タグも追加することができます。

つづきを読む

Magnetを下までご覧いただいてありがとうございます。


過去のMagnet NewsletterはキメラのWebサイトでご覧になれます。あなたと一緒にMagnetを楽しめそうな同僚がいたら転送して配信登録するようお伝えください。記事コンテンツのエンゲージメント分析ツール「Chartbeat」、デジタルメディアのサブスクとコンテンツ課金を簡単に導入・管理できる「AE」、そのほかキメラのへのお問い合わせはいつでもお気軽に。


花粉症は春の季語ですか? 春はそういう意味で辛い季節でもありながら、気候はおだやか。晴れやかなお花見、感情が揺さぶられ涙もろくなる卒業式や入学式のシーズンでもあります。しかし、ここ数日の東京は暴風で春の荒々しい一面にやられてもいます。


春の食事はかるく、消化のよいものを摂るといいそうです。冬を越すための貯め込むモードだった体も、春にあわせて軽くしていく。少しずつ切り替えていきましょう。


窓の外をみて、散歩にいきましょう。花粉症でなければ。


Making a better world for readers,
creators and publishers.