Google Geminiの2023年デモモデルはYouTube動画6万時間で訓練されていたと元従業員が証言

あなたのAI時代適応度は?
3分で診断・具体的なロードマップを提示
【ニュース: Google Geminiの2023年デモモデルはYouTube動画6万時間で訓練されていたと元従業員が証言(2024-05-18T10:07:00Z)】

事実概要: Business Insiderによると、2024年5月、Googleの元従業員が、2023年のGoogle Geminiデモで使用されたAIモデルが、YouTube動画6万時間分で訓練されていたことを証言した。この元従業員はGeminiチームに所属しており、当該モデルは一般公開向けには設計されていなかった「専門化された」バージョンであったと述べている。
2023年12月に公開されたこのデモは、Geminiがリアルタイムで物体を識別したり、複雑なプロンプトを理解したりする印象的な能力を示した。元従業員は、YouTube動画の利用が、Geminiがマルチモーダル情報を処理するのに役立ったと説明している。
Googleはこれまで、AI訓練データ、特に著作権のある素材に関する精査に直面してきた。同社は以前、AIモデルの訓練に一般公開されているデータとパートナーシップを利用していると述べている。この元従業員の声明は、Googleの子会社であるYouTubeのコンテンツがAI訓練にどの程度使用されているのか、そしてクリエイターが適切に報酬やクレジットを受けているのかについて疑問を提起している。
> 引用元: The AI model used for the Google Gemini demo in 2023 was trained on 60,000 hours of YouTube videos, former Google employee says
編集長の眼: Google Geminiの2023年デモモデルが、元NASA技術者である私も驚く「YouTube動画6万時間」で訓練されていたという証言が飛び出しました。これが示しているのは、AIが私たちの想像以上に、身近なコンテンツから「学習」している現実です。まるで、私たちが日頃アップロードする動画が、知らず知らずのうちに未来のAIの「教科書」になっているような構造です。ポイントは、クリエイターの権利と報酬というシンプルな問いかけです。皆さんがAIツールを使う際は、そのデータ源を提供元に問い合わせてみてください。それが信頼できるAIを選ぶための具体的な一手となります。
ビジネスメール作成を効率化
この事例は、AI時代を生き抜く上で示唆に富んでいます。「ビジネスメール作成を効率化」が問いかけるのは、私たちひとりひとりがAIとどう向き合うかという、極めて実践的な問いです。
プロジェクトの遅延が発生し、顧客への説明メール作成に悩むビジネスパーソンがいました。緊急の状況下で、適切な言葉遣いや構成を考えるのに多くの時間を要し、精神的な負担も大きいという課題を抱えていました。そこで、ChatGPTに具体的な状況と目的(遅延の謝罪、状況
編集長の目: AIの真価は「奪う道具」ではなく「解放する道具」として機能し得るということです。重要なのは、AIをどんな問いに向けるかという、人間側の設計力です。あなたの日常業務の中にも、今日の事例と同様の「AIで解放できる制約」が必ずあります。
【総括:時代の濁流を読み解く】
今日を一言で言うなら『AIの先生はどこにいる?』です。今日のデータを並べてみると、Google Geminiのデモモデルが、実に6万時間ものYouTube動画で訓練されていたという、驚きの事実が明らかになりました。これは、まるで私たちが「箱の中身は何だろう?」と実験するのと同じように、AIが膨大なデジタルデータの中からパターンを見つけ出し、学習していることを示しています。しかし、この「学習」のプロセスは、私たちが期待する透明性とは少し違っています。
なぜこのようなデータ利用が問題になるかというと、私たちのアップロードした動画やコンテンツが、AIの知性を形成する「授業」に使われているにもかかわらず、その「先生」であるクリエイター自身が、その恩恵やクレジットを全く受けられない可能性があるからです。これは、AI開発におけるデータ利用が、まさに「ブラックボックス」になっていることを意味します。Googleは「専門化されたバージョン」と説明していますが、この説明だけでは、クリエイターの疑問に答えるには不十分です。
私たちが知るべきは、AIが何を「見て」、何を「学んだ」のかという具体的な情報です。現在のAIは、私たちの想像以上に速いスピードで進化しています。わずか数年前には考えられなかったようなマルチモーダル能力を、YouTubeのような公開データから短期間で習得しているのです。だからこそ、AIの能力に驚くだけでなく、その「教育」の過程にも目を向ける必要があります。
明日から試せる具体的な一手はシンプルです。皆さんが新しいAIツールやサービスを導入する際、必ずその提供元に「あなたのAIはどのようなデータで訓練されていますか?」「私のデータはどのように扱われますか?」と直接問い合わせてみてください。これは、単なる規約の確認以上の意味を持ちます。この行動が、AI開発における透明性を求める具体的な「投票」となり、未来のAIの「教育方針」を私たちが一緒に設計していくきっかけになるはずです。