既に各所で話題となっていますが、生成AIスパムによる既存ビジネスへの脅威が起こっています。例えば既存のパブリッシャーが提供する記事をベースに、生成AIによる記事が大量にポストされ、SEOが進んでしまった結果、パブリッシャーが元々持っていたユーザトラフィックが盗まれています。また生成AIが事象に関するキーワードだけをベースに事実に基づかない記事を自動生成し、それがトラフィックを得て検索結果上位に位置されてしまう事態も起こっています。こうしてオリジナルの記事を提供していたメディア側はトラフィックも奪われてしまった上に、メディアとしての信頼性や検索エンジン結果の信頼性も同時に下がってしまう三重苦の状況が発生してしまいます。
また直近でGoogleやOpen AIが非常にリアリティのある動画をAIで生成できるソリューション(Google LUMIERE、Open AI Sora)をそれぞれ発表しました。まだ一般利用はできないものの、ひとたびこのツールを多くの人たちが利用できるようにすれば効率性・生産性の向上に大きく寄与すると同時に、テキストだけではなく音声・動画も含めた大量のフェイクコンテンツが氾濫することは想像に難くありません。
他にもChatGPTをはじめ、生成AIにはハルシネーションと呼ばれる幻覚症状を起こすことがあります。自社でチューニングしたAIが思い通りの結果を返さないことや暴走したように見える回答をして、炎上してしまうリスクをはらんでいます。AIはあくまで統計的確率論で動いているにすぎないので、トピックによっては論理的には成立してもまったく事実とは異なることを吹聴する場合があります。このことはAIをよく利用する人にとっては共通認識になりつつはありますが、人々が全員同レベルの警戒心を持ってAIに接するのは困難であり、多くの人がAIに騙されてしまうリスクは依然として高く、提供側でも何らかの対策が必要です。
現在AIの急速な普及が進む中でこうした生成AIに対するリスク対応がより重要度・緊急度が増しています。特にアメリカに関しては、2024年11月に大統領選を控えており、すでに予備選挙段階からフェイクニュース対策は非常に重要なテーマとなっています。