2025年10月30日、TBSが発表したニュースは大きな注目を集めました。
人気ドラマ『VIVANT』の続編制作において、Googleの生成AI「Veo 3」を用いた映像生成を導入するというものです。TBSによると、この取り組みは「業務効率の向上」を目的としており、限られた制作リソースを最大限に活かし、クリエイターが創造的な部分に集中できるようにするための試みだと説明されています。
2026年放送日曜劇場『VIVANT』続編 TBSドラマ初!Veo 3によるAI生成映像の使用をGoogle Cloud 主催 AI Agent Summit ’25 Fallにて発表
地上波ドラマ本編に生成AIを用いるのは、TBSとして史上初の取り組みとされています。
確かに、映像制作の現場では近年、VFXやCGの工程が増え、膨大な作業時間や人手が必要とされています。AIがその一部を担うことで、制作の効率化やコスト削減が期待できるのは事実です。
しかし、この「効率化」という言葉の背後には、見逃してはならない非常に大きな問題が潜んでいます。
問題は「どのAIを使うのか」にある
TBSが利用を発表した「Veo 3」は、Googleが開発した映像生成AIです。
つまり、TBSが自社で開発したAIではなく、他社製のAIツールを使ってドラマ映像の一部を生成するということになります。この構造自体に、実は大きな法的・倫理的な問題が存在します。
生成AIというものは、基本的に膨大な学習データをもとにモデルを作り上げています。
そしてその学習データの中身は、一般的には完全な著作権フリーの素材だけで構成されているとは限りません。
インターネット上で公開されている写真や映像、クリエイターの作品などが、明示的な許可を得ずに学習素材として使われている可能性が十分にあります。
AIの内部構造は「ブラックボックス」です。
どのデータをどのように参照し、どの割合で出力に反映しているかを誰も検証できません。
企業が「責任を持って利用します」と言ったところで、その“責任”を実際に確認する術が存在しないのです。
「完全一致」していなくても“部分的盗用”の可能性はある
たとえ生成AIの出力映像が、既存の作品と完全に一致していなかったとしても、問題は残ります。
AIが生成する映像には、微細な「断片」や「特徴」が学習データから統計的に抽出されて再構成されています。
例えば、人間の指の形や肌の質感、服の模様、建物の壁のテクスチャ、光の反射の角度など、目に見えないレベルで既存の映像データを参照している可能性があります。
つまり、「似ているけれど違う」「完全には一致していない」という状態であっても、他人の作品の断片が継ぎはぎ的に含まれているということがあり得るのです。
しかし、これを裁判で立証することはほぼ不可能です。
なぜなら、AIがどの作品のどの部分を学習して出力に使ったのかを追跡することは、技術的にできないからです。
現在の法律では“裁けない”構造になっている
この問題をさらに複雑にしているのが、現行の著作権法の限界です。
著作権侵害が成立するためには、「既存の著作物に依拠して創作したこと(依拠性)」と「実質的に同一の表現があること(類似性)」の両方が必要です。
しかし生成AIが出力した映像が、無数の作品から数パーセントずつ断片的に影響を受けている場合、その「依拠」を立証することは事実上不可能です。
結果として、著作権法の網からすり抜ける“無数の小さな盗用”が黙認される状況が生まれています。
そして、企業はこうした問題に対して「倫理的責任を持って対応します」と説明しますが、そもそも訴えることも裁くこともできない以上、「責任」という言葉自体が空洞化しているのです。
「倫理的責任」は免罪符になりつつある
TBSのような大企業は、契約上の免責や法務体制によって、リスクを“処理可能な範囲”に収めることができます。
しかしそれはあくまで法務上の自己防衛であり、倫理的な透明性とは別問題です。
AIが学習したデータの中に、他人の著作物が含まれていたとしても、それを証明できる人は誰もいません。
だからこそ、企業が「倫理的に運用します」と言うたびに、その言葉は実質的な意味を失い、単なる広報用の免罪符として機能してしまうのです。
「個人がやれば違法、大企業がやれば革新」という二重構造
ここで一つの皮肉が生まれます。
もし一般のユーザーが、生成AIを使ってこのTBSドラマ『VIVANT』の世界観を模した映像を作ったとしたらどうでしょうか。
主人公やヒロインに似た雰囲気のキャラクターが登場し、背景の街並みもよく似ている。
しかしよく見ると全く同一ではなく、微妙に異なる人物や場所が描かれている。AIによる生成物の性質上、「そっくりだが違う」という状態は容易に実現できます。
しかしこの場合、TBSが一般ユーザーに対して「それは著作権侵害だ」と主張するのは非常に難しい。なぜなら、TBS自身が同じ論理のもとで「似ているけれど違う」映像を生成AIで作っているからです。
つまり、「私たちがやるのは創造的だが、あなたがやるのは模倣だ」というダブルスタンダードが生まれてしまいます。AIの学習や生成の構造が同じである以上、その差は立場と経済力によるものでしかありません。
本来あるべき姿:自社データでのAI活用
本来、TBSのような大企業がAIを使うのであれば、理想的なのは「自社が撮影した映像データのみを学習させたAI」を構築することです。
そうすれば、他人の著作物を無断で学習するリスクはゼロになり、生成された映像も「自社の記録を再構成したもの」として正当に扱えます。
つまり、自社の畑で採れた素材を、自社の厨房で調理するような構造です。
しかし現実には、こうした「自社完結型AI」は膨大なコストと技術力が必要なため、ほとんどの企業が外部の生成AIサービスに依存しています。
その結果、著作権や倫理の曖昧なゾーンに踏み込んでしまうのです。
白でも黒でもない世界で
生成AIの導入によって、映像制作の可能性は確かに広がりました。
しかし同時に、著作権や倫理の境界線はかつてないほど曖昧になっています。
TBSの取り組みは技術的には画期的かもしれませんが、その裏では「どこまでが合法で、どこからが他人の創作を搾取しているのか」が見えなくなっています。
もしこのまま「裁けない領域」でAIが運用され続ければ、“責任”という言葉はただの飾りになり、“倫理的配慮”は免罪のための儀式になってしまうでしょう。
そして最終的に残るのは、大企業には許され、個人には許されない構造的な不公平です。
AIが進化するほど、この不透明な構造をどう扱うかという倫理的・法的な議論が、今こそ真剣に求められているのではないでしょうか。


