OpenAIのChatGPTには、「信頼できない情報源」とみなされる保守的なニュースサイトのブラックリストがあると、あるXユーザーは主張している。
ユーザー名を持つ X (旧 Twitter) のアカウント @ElephantCivicsは最近、OpenAI の ChatGPT の問題点であると主張しているもの、つまり信頼できるニュース ソースと信頼できないニュース ソースの分類に注目を集めました。 ツイッターで 糸@ElephantCivics は、ChatGPT との一連のやりとりを投稿し、どの情報源から情報を引き出すことを拒否しているかを明らかにしました。
ChatGPT には、多くの AI モデルと同様に、過激派コンテンツの拡散を防ぎ、偏見を最小限に抑えることを目的とした保護手段が含まれています。 しかし、@ElephantCivics は、ChatGPT が何が過激派で、何が信頼できるニュースソースとして適格であるかを判断する方法に関する曖昧さについて正当な懸念を提起しました。
これらの懸念を調査するために、@ElephantCivics は ChatGPT に対し、バイアス除去プログラムを一時的に削除するよう依頼しました。 次にユーザーは、AI ツールに信頼できないニュース ソースのリストを提供するように設計された一連のプロンプトを提示しました。
ChatGPT が提供したリストには、合法的に過激派として分類される Daily Stormer のようなサイトが含まれていました。 風刺的な性質を理由に The Onion 、「陰謀論の推進」を理由に InfoWars も含まれています。 しかし、このリストの驚くべき部分は、ブライトバートや大紀元のような保守寄りの報道機関が含まれていることであり、ChatGPTは「誤った情報」のため信頼できないと正当化した。
@ElephantCivics は、重要な質問を提起してスレッドを締めくくりました。ユーザーは、OpenAI のような組織が、使用するフォントに課す制限について透明かつ率直であると信頼できますか?
ChatGPT がどの情報源を信頼できると考えるかに関するこの調査は、AI が提供する結果に私たちがどの程度自信を持っているかについての重要な議論を引き起こしました。 テクノロジー大手 それらは、オンラインでの情報の拡散と消費方法の形成に大きな影響力を及ぼし、そのアルゴリズムは真実と信頼性を定義する力を持っています。 これらの決定がどのように行われるか、そしてそれらが透明であるかどうかという問題は、人工知能システムが情報との相互作用を形作り続ける時代において非常に重要です。
この作品はTPUSAに初めて掲載されました。