AIコンテンツは差別主義者にもなる。知っておきたい4つの問題点

Is AI content helping or hurting your website?
MARKETER

ChatGPTBing AIなど高度なAIツールが急速に普及し、AIを活用したコンテンツ制作は多くの人に注目されるようになりました。SNSの投稿やブログ記事を書いたり、質問に答えたり、画像を生成したりと、ジャンルを問わずAIの活用方法が日々議論されています。

しかし、未知の存在であるAIに対する不安の声も大きいです。最近ではAI画像の著作権をめぐる問題が話題になっているように、AIコンテンツ自体に対して不安を感じるという意見もあります。

この記事では、AIの急速な普及により生じてきたコンテンツ制作上の問題点を解説します。

問題点1. オリジナリティの欠如

AIコンテンツの問題点としてまず挙げられやすいのは、「オリジナリティ」の問題です。アルゴリズムは既存のコンテンツのスタイルやトーンを模倣しますが、実在の人物のクリエイティビティやオリジナリティの完全な再現はできません。

結果、生み出されたコンテンツが「他人のパクリ」になってしまうケースも珍しくないのです。

現状、仮にAIが他人のコンテンツをパクっても法的な問題はあまり発生しなさそうですが、モラル面での問題は否めません。またSEOを考えた場合、すでにネット上にある情報をまとめただけのAIコンテンツで上位表示は望みにくいでしょう。

何より、AIで他人のコンテンツをパクってしまうと、AIを扱う人間や事業者に批判が殺到することは必至。事業の信頼感や評判を損ねる危険性があります。

問題点2. オリジナルコンテンツ不足による“エコーチェンバー”の加速

AI活用によってコンテンツが簡単に作れるようになり、コンテンツ制作のハードルは以前より下がりました。今後もこの流れはますます加速し、AI活用はもっと盛んになるでしょう。

しかし、全員がAIを使ってコンテンツを作っていたら、誰も新しい「オリジナルコンテンツ」を作らないことになります。

先ほども触れたように、AIは基本的にオリジナリティあふれるコンテンツを制作することは苦手です。すると、生み出されるコンテンツはどうしても既存の情報に基づいてしまい、新しい考えやアイデアが生まれにくくなる可能性があります。

結果、コンテンツ同士の類似性がどんどん高まっていき、エコーチェンバー現象が発生してしまうかもしれません。

※エコーチェンバー:閉じた小部屋で音が反響する物理現象。ここでは多くの人がAIコンテンツを作ることで、類似性の高い情報ばかりが生まれてしまい、学習元となるデータもAIが生成したものとなり、AIコンテンツをもとにAIコンテンツが生まれてしまうような状況を指す

実際に、GoogleのAI研究者であるフランソワ・ショレ氏は、AIコンテンツについて以下のようにツイートしています。

上記のツイートを訳すと、「AIは会議で誰かが言ったことをそのまま繰り返して、賢いことを言っているような雰囲気を出す人みたいなものだ」となります。

問題点3. ステレオタイプの再生産、拡散

AIには既存のパターンを再現する傾向があるため、AIコンテンツを使用すると、ステレオタイプや偏見、排他的な意見を再生産し、拡散してしまう可能性があります。

また、ダイバーシティやインクルージョン(多様性とその尊重)の欠如という問題も生じています。残念ながらネット上には偏った価値観、考えによって制作されたコンテンツも多く、それをもとにAIが生成するのは、同じく偏った考えに基づいたコンテンツです。

これに関連して、テック系ニュースサイト・Futurismのマギー・ハリソン氏は、「ChatGPTは本質的に自動化されたマンスプレイニング(男性が女性などを見下し、知識をひけらかすこと)マシーンである」という興味深い記事を書いています。

AIは多数派の意見を反映してしまう傾向にあり、読者やユーザーを傷つける可能性があります。

問題点4. バイアスによる差別的な振る舞い

GoogleのAIであるBardや新しくなったBing、OpenAIのChatGPTなどを支える大規模言語モデル(LLM)は、Web上のコンテンツから学習しています。Webは多様な価値観を尊重する場であることが理想ですが、実際はそうとは言いきれません。

たとえば、オックスフォード大学の調査によると、Wikipediaは欧米の男性が編集していることが多く、書かれている内容には偏見があると指摘されています。

実際、AIがコンテンツにバイアスをかけてしまった事例はいくつか発生しています。具体例を見てみましょう。

事例1. AmazonのAI採用支援ツールによる性差別

Amazonは応募者の履歴書を自動採点するAIシステムを制作し、過去10年分の履歴書を読み込ませたうえで、応募者の履歴書を選び出させました。しかし、AIが選び出した履歴書のほとんどは男性のもので、女性の評価が下げられる現象が発生しました。

これはテック業界の男女比を反映したものでしたが、結果的に性差別的なAIが誕生してしまったのです。差別的なAIを作る意図がなくても、供給されたデータに偏りがあれば、そのAIがはじき出す情報にも偏りが生じる一例です。

事例2. 白人優位の画像生成

AIの画像生成にもバイアスがかかっています。たとえば、「手をつないだロマンチックなカップル」の画像を生成すると、多くの場合で白人優位の画像が生成されます。

2021年7月、Open AIの画像生成ツールであるDall-E 2は「より正確に世界人口の多様性を反映させる」として、ツールをアップデートしました。しかし、依然として生成される画像は多様性に欠けています。さらに、プロンプトに「貧しい」という言葉を追加したときだけ、有色人種が表示されるようになったのです。

もちろんツール側でシステムを調整することは可能です。しかし、公平性を確保するために熱心に取り組まないかぎり、AIコンテンツにはバイアスがつきものだと考えてください。

AIコンテンツには「人間の編集」が不可欠

AIコンテンツにはオリジナリティの欠如や、バイアスといった問題点があることが分かりました。しかし、「問題があるからAIを使うのは止めよう」という話がしたいわけではありません。

AIを効果的に、かつ上手に活用するためには、「人間による編集」が必要不可欠です。AIを時間短縮のために使うことはできても、最終的にはコンテンツの「信憑性」「多様性」などを人間が確認しながら調整することが求められます。

ただし、言うまでもなくバイアスをもっているのはAIだけではありません。AIが生成したものを調整したり、バイアスを意識したコンテンツを作ったりするためには、「自分自身のバイアス」とも向き合う必要があるでしょう。

コンテンツ制作の際にはファクトチェックを行い、人種差別的、性差別的、侮辱的な言葉や表現を使っていないか、チェックする習慣をつけましょう。

(執筆:Sam Alderson 翻訳:Asuka Nakajima 編集:齊藤颯人 提供:Yoast

SHARE

  • 広告主募集
  • ライター・編集者募集
  • WorkshipSPACE
マーケター副業案件
Workship