[事件/事故/社会問題/国際問題]etc.
ディープフェイクの普及で「証拠」が信用できなくなる時代、社会
近年、AI技術により「本物と区別がつかない偽の音声・動画」が大量に作られるようになりました。
政治家が言っていない言葉を“言ったように見せる動画”や、個人を陥れる偽音声など、社会生活に大きな影響を与えつつあります。
私たちの社会では、動画・音声は長い間“動かぬ証拠”とされてきました。しかし、その前提が崩れたとき、法律・裁判・報道・個人の名誉はどう守るべきでしょうか?
ディープフェイクによる「個人の証拠性の崩壊」をどう捉え、どんな対策が必要なのか議論します。
政治家が言っていない言葉を“言ったように見せる動画”や、個人を陥れる偽音声など、社会生活に大きな影響を与えつつあります。
私たちの社会では、動画・音声は長い間“動かぬ証拠”とされてきました。しかし、その前提が崩れたとき、法律・裁判・報道・個人の名誉はどう守るべきでしょうか?
ディープフェイクによる「個人の証拠性の崩壊」をどう捉え、どんな対策が必要なのか議論します。
グループ名:
技術・法規・教育で対策派ディープフェイクの脅威には、検知技術の開発や透かし技術を活用して真偽を確認する仕組みと、AI法や情報流通プラットフォーム対処法などの法規制、国民のメディアリテラシー向上を組み合わせた多層的な対策が必要です。証拠の信頼性は複数の手段で検証すべきで、映像だけに頼らない運用が重要です。
1 投稿日: 2025 - 11/25 00:54 【最多投票の発言】
ディープフェイクは政治家の発言を捏造するなど真実を揺るがし、映像が本物でも信用を失わせる危険があります【701149018293499†L206-L218】。検出技術や透かし技術の研究が進んでいますが、生成技術との競争で限界があり【701149018293499†L226-L240】、法規制と市民の情報リテラシー向上も不可欠です【78695726648054†L294-L297】。裁判では証拠の真正性が争点となり鑑定費用が増大しています【622140028108709†L198-L248】。AI法や情報流通プラットフォーム対処法による規制整備と、AdobeのCAIやC2PAのようなプロヴェナン
得票数_0
並び替え: | 新しい発言 | | 古い発言 | | 得票数 |