コンテンツのモデレーターは、AIシステムの80%が誤りであると報告しました。

robot
概要作成中

調査クイズ# コンテンツモデレーターはAIシステムエラーの80%を主張しています

人工知能はコンテンツモデレーターの仕事を簡素化するのではなく、複雑にしています。彼は暴力や悪を信頼性を持って認識することができないと、ブルームバーグは13人のオンラインコンテンツフィルターの専門家を引用して報じています。

TikTokの従業員の一人であるケビンという偽名を使う人物は、1年以上前に自分の仕事でAIプログラムを使用するように指示されたと述べました。彼は誤りの数を約70%と評価しました。例えば、人工知能は動画の車のダッシュボードに低燃料の警告を表示することがありますが、実際には時速200kmを示すスピードメーターを分析する必要があります。

ケビンは、発生する困難にもかかわらず、雇用主が人間を機械に置き換え続けると考えています。

プロフェッショナルなモデレーターは主張を確認しました — AIは有害なコンテンツを質的にふるい分けることを学ぶよりも早く適用され始めています。

専門家は、ヘイト、プロパガンダ、子供の勧誘、その他のオンライン脅威が自由に拡散される、人工知能によって制御されたインターネット環境の出現を懸念しています。

「AIの導入を進めてセキュリティスペシャリストの数を減らすことにした場合、それは減少をもたらします。生きた人間が必要です」とカナダの子供保護センターの技術ディレクター、ロイド・リチャードソンは述べました。

コンテンツモデレーターの仕事は感情的な傷をもたらし、十分な人数を雇うことは難しい課題です。YouTubeだけでユーザーは1日に2000万本以上の動画をアップロードしています。企業は人工知能に賭けていますが、それはただ邪魔をするだけです。

13人のモデレーターと話をしたBloombergのジャーナリストのうち、12人がニューラルネットワークの統合後に作業が複雑になったと述べました。

「私たちはAIのヒントに頼ることはできません。80%のケースで彼は間違います。私たちは彼の提案さえ見ません」と、カザフスタンのコンテンツモデレーション会社の36歳の従業員、ジャネルケ・カイデノワは述べました。

ケビンは、見たものに対して超正確なマークを手動で付けることで、エラーを修正するために時間を使っています。この作業は負担を増やすだけでなく、より緊急なタスクに費やすことができた時間を奪っています。

彼は、自分の細かい修正が実際にシステムを学習させていると確信しており、最終的には彼を置き換えることになると考えていますが、経営陣はそのことを直接言っていません。

リマインダーとして、2024年5月にRedditはOpenAIとの提携を発表し、RedditユーザーやモデレーターにAIを基にした新機能を提供しました。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)