【生成AI】「フェイク画像」対策カメラ、キヤノンが発売へ…撮影日時や場所などの情報を改変できない仕組みに
1: ばーど ★2023/12/26(火) 09:38:38.35 ID:AYVvlyb79キヤノンは、生成AI(人工知能)が作る偽画像と真正の画像を判別できるカメラを2024年に発売する。デジタルデータの信頼性を確保するための技術規格に対応し、特定のソフトで画像を編集する。偽画像は増加傾向にあり、誤った情報の拡散を防ぎたい企業や行政機関などの需要に対応する。新しいカメラで撮影すると、画像ファイルに記録された撮影日時や場所などの情報は改変できない状態となる。画像を編集する場合は特定のソフトを利用して履歴が追加される。しかし、別のソフトで編集した場合はこれらの情報の信ぴょう性がなくなる仕組みで、偽画像の可能性があるという。同社は今年8月末までの実証実験で技術を確立できたといい、24年中の発売を目指す。
生成AIの普及により、高度な技術を持たない人でも精巧な偽画像を作れる状況となっている。人間の目では真偽の区別が難しい「ディープフェイク」は、人権侵害や世論操作につながるリスクもある。同社は報道機関が扱うニュース画像や捜査機関の証拠写真、身分証明書で使う証明写真などでの活用を見込む。
業界では画像の真正性を保証する共通規格を整備する動きが進んでいる。ソニーも「AI技術の急速な発展で偽画像の問題が拡大している」として同様の技術の開発を進めており、24年春に同社製カメラの一部で対応が可能になると発表している。
読売新聞 2023/12/26 08:00
https://www.yomiuri.co.jp/economy/20231226-OYT1T50007/https://www.yomiuri.co.jp/media/2023/12/20231226-OYT1I50000-1.jpg
つまりSNSに自宅で撮影した画像をアップしたら
詳細な自宅の住所が全世界へ公開されると
大変だよなあ
だけど、デジカメ側の日時設定変更でゴニョ
iPhoneで撮影したらgps座標まで記録されるけど・・・?
これで画像PDFも改竄できる
意味の無い技術になるんじゃないかな?
これが広まったら
暗号化された情報が付いていないものは全て偽物だ!
となるんだろうな
広まったらだが・・・
位置情報はGPSモジュールに手を加えれば改変できる
カメラだって組み込みにRTCを入れてるだけだからハックは可能だろう
ここら辺のハードをメンテナンス禁止するのか?
この方向で生き返ったりするのかな
NFT詐欺やってた奴今ほぼAI詐欺に鞍替えしてるぞ
平気なのか
権力者が自分のビデオメッセージを発信するみたいな場合なら真贋をハッキリさせる事が出来そう
ストーキングし放題だっつの
昭和脳かよ
何周遅れなんだよ
これを何とかしろよ
キャノンで撮ったから事実!
一瞬で逆に悪用される未来が見える
透かしみたいの
ゆくゆくは写真に限らずそれがデフォになる気がする
画像表示されたものをスクショしても番号付与されないから判別簡単だし
そのカメラ経由で取り込めばよくね?
ディスカッション
コメント一覧
コメントをどうぞ