ディープフェイクポルノ 乃木坂。 Umezawa Minami Japanese Deepfake Porn 梅澤美波 ディープフェイク

ces.massrelevance.com:本物そっくりの映像を作り出す「ディープフェイク」に注意

ディープフェイクポルノ 乃木坂

ページコンテンツ• 現在は動画を合成する技術も進化していて、AIを使って偽物の動画、いわゆるフェイク動画がつくられる事例が増えています。 昨年は、米国の前大統領オバマ氏が、トランプ大統領ののしる動画が公開され、話題になりました。 先日は、米民主党のナンシー・ペロシ下院議長が酔っぱらってインタビューに答える動画が公開され、話題になっています。 これらは、誰かが意図的につくったフェイク動画です。 従来は、画像の音声だけを別のものに入れ替えて、元の動画とは全く別の内容にしてしまうアテレコや、音声を早回しにしたり、遅くして低い声にするような、簡単な方法で作られていました。 これらは「シャローフェイク」と呼ばれます。 現在は、AIを使って高度に合成する「ディープフェイク」と呼ぶ技術が注目されています。 マツコ・デラックスが力士になって、インタビューに答える動画 これは、よく出来ていますね。 体や声は、元の力士のものだと思います。 顔の部分だけマツコ・デラックスに入れ替えられています。 顔のすげ替えがすごく自然にできているのは、マツコ・デラックスの顔の輪郭が力士に似ているからでしょう。 表情は、違和感ないです。 全体を見れば、違和感があるのですが、顔に注目すると、本人が喋っているような感覚になってきます。 元の力士の声も、マツコ・デラックスに似ているのでしょう。 ディープフェイクとは、ここでは2つの動画を対応づける部分にAIが使われています。 まず、元の力士の目、鼻、口など、顔の要素を正確に認識し、その位置と動きを捉えます。 そして、別に用意しているマツコ・デラックスの動画か写真から、同様に、目、鼻、口など、顔の要素を正確に認識して、対応する部分に画像を貼り付けます。 画像を貼り付けるときに、引き伸ばしたり縮めたりしますが、これは従来技術で簡単にできます。 難しいのは、顔の要素を細かく分解して認識させ、別の画像と対応づけることです。 実は、AIは人間が「これが目」と認識するように、意味を理解していません。 あくまでもパターン認識で対応づけるので、間違えることが多い。 自然に対応づけるのは、かなり難しい技術なのです。 今のところは、少しぎこちない動きや表情になるので、よく見れば分かってしまいます。 でも、数秒程度の短い動画クリップだと、フェイク動画かどうかよくわかりません。 さらに、フェイク動画だとわかっていても、面白半分でTwitterなどで拡散されてしまうこともあるでしょう。 一旦広まったデマを取り消すのは大変です。 GAN(Generative Adversarial Networks)とは、敵対的生成ネットワークと呼ばれるこの技術。 入力データを大量に与えることで、データだけから特徴を抽出することができ、教師データと呼ぶ正解を人間が教えなくてもいい、という点が特長です。 GANは本物に似せてフェイク画像をつくる仕組みと、それを偽物かどうか見破る仕組みを、戦わせます。 偽札を作る人と警察が協力して、警察にもバレないような偽札を完成させるようなものです。 警察のレベルも学習によって上がるので、偽札づくりのレベルも、どんどん上がっていきます。 AIの中に、悪人と善人が同居して、お互いにレベルを上げながら、最終的に悪人が勝つ、という仕組みなのです。 GANは本来は善人を生み出すためにつくられたのですが、悪人をつくるためにも利用できてしまった、というわけです。 フェイク動画にGANを適用して進化させると、どんどん巧妙な合成ができるようになります。 巧妙になるディープフェイク動画を検出するツール開発の動きもあります。 でも、検索してみると、怪しいサイトに誘導されたり、有料だったりするので、素人は手を出さない方が良さそうです。 パソコンで動画合成する場合は、かなり高性能なCPUやGPU(グラフィックカード)が必要になります。 そうやって苦労して作った割には、出来上がった動画の品質はいまひとつだったりします。 話題になるほどの完成度に仕上げるのは、簡単ではありません。 従来は、かなりお金をかけても難しかったものが、現在ではある程度の投資で作れるようになった。 というレベルです。 自分で作るのではなく、ときどき話題になる動画を見て、へ~、AIの進化はここまで来たか、と確認する程度がいいでしょう。 では、代表的なアプリ、Webサービスをご紹介していきましょう。 FakeApp(動画のAI合成アプリ、無料) 高性能PCが必要です。 具体的には、高性能のグラフィックカード(NVIDIAのGPUチップ)が必要で、これだけで数万円から10数万円。 PC本体も併せると、パソコンのハードだけで20~50万円くらいかかりそうです。 さらに動画の合成には何時間もかかります。 ハードの性能が低いと、処理が完了するまで何日もかかります。 動画合成用の専用パソコンを用意して、気長に待つ必要があります FakeApp 2. 0 Tutorial (ソフトのインストールから、使い方まで解説) 3. FaceSwap GitHub、オープンソースのプログラム、開発ができる人向け) ソフトは無料ですが、自分でソフト開発できる環境が必要です。 かなり玄人で、細かい調整を自分でやりたい人向けです。 現在は公開禁止になっています。 今でも、いくつかのサイトではダウンロードできるような表示がありますが、本当に使えるのか怪しいです。 当然、本人のヌード写真が現れるわけはなく、顔だけ本人のものを残して、体の部分を他人のヌード写真から合成している筈です。 合成が自然にできれば、あたかも本人のヌードのように見えるというだけです。 手間をかければ、人力でも合成できますが、1クリックで簡単にできるようにしたところが凄い。 AIを使って、本人の顔画像から、合成しやすいヌード画像を探し出して、自然に合成するところまで、自動化したのでしょう。 ある意味単純作業ですから、AIが得意とする領域です。 技術が進歩すると、こういうソフトも簡単に作れるようになります。 でも、アップした個人の顔画像が永久にアプリ会社で再利用されてしまう、とんでもないプライバシーポリシーが設定されていたと、大ブーイングとなりました。 ビックリですが! 6. iPhoneで超簡単、ディープフェイク動画アプリ「Xpression」 iPhone(iOS)アプリで簡単にディープフェイク動画がつくれるアプリが登場しました。 現在も普通にダウンロードできて、使えます。 日本企業が開発しているのも安心なところ。 できるのは、口や顔の表情だけを入れ替えること。 顔自体を入れ替えることはできません。 でも、上手く使えば、パーティーとかで盛り上がるにはちょうどいい感じ。 真面目な使い方では、寝起きで頭ぼさぼさで電話会議に出るときに、このアプリを使えば、スーツで決めたカッコイイ姿で登場できる、とか。 色々な使い方を考えるだけでも、楽しいですね! 実は、このアプリ、「EmbodyMe」という日本のベンチャー企業が開発していて、高い技術力をアピールするデモソフトとしての役割が強いようです。 技術的には、顔自体を入れ替えることもできそうですが、そこまでやると悪用される可能性が高くなる。 技術力をアピールしながら、遊びの範囲で使ってもらうために、あえて機能を制限している感じです。 ここまで見てきたように、ディープフェイクの技術はどんどん進化しています。 しかし、まだ素人がフェイク動画をつくるのは簡単ではありません。 今後仮に、簡単につくれるようになっても、トラブルを避けるには、安易に手を出さないことが重要です。 一歩間違えれば、犯罪にもなりかねません。 目を疑うような動画を見たときに、簡単に騙されないこと フェイク動画かも? と思えるだけの、知識と心の余裕を持ちたいですね。 ではでは。

次の

ディープフェイクとは?注意点や問題点は?閲覧可能なサイトも紹介!

ディープフェイクポルノ 乃木坂

画像外部リンク ディープフェイク(deepfake)は「(deep learning)」と「(fake)」を組み合わせた(かばん語)で 、にもとづく人物画像合成の技術を指す。 「(GANs)」と呼ばれる技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて()、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。 これらの機能により、有名人のまたはの偽造作成のため、ディープフェイクが使用される可能性がある。 さらに、ディープフェイクは、や悪意のあるを作成するためにも使用され得る。 ディープフェイク [ ] 2017年にインターネット上で、特にでディープフェイクのポルノが初めて現れ 、現在ではReddit、、などのサイトで禁止されている。 2017年秋、"Deepfakes" というののRedditユーザーがインターネットにいくつかのポルノビデオを投稿した。 注目を集めた最初のものは、のディープフェイクだった。 それはまた、よく知られたディープフェイクビデオの1つで、いくつかの記事の中でひときわ目立つものであった。 ほかのディープフェイクとして、継兄弟と性行為をしているを演じた女優の、また、、、、があった。 を使用して作成された、それらのビデオは本物ではなく、ほどなく偽物であることが暴かれた。 時間が経つにつれて、Redditのは偽造ビデオの多くのを修正し、偽物と本物のを区別することが次第に困難になった。 で容易に入手できる女優の非ポルノの写真やビデオは、のための訓練データとして使用された。 ディープフェイク現象は、2017年12月に、雑誌()の技術と科学の欄で初めて報告され、他のメディアでも広く報道された。 2018年12月、頻繁にディープフェイクポルノの対象となっているスカーレット・ヨハンソンが、の取材に対し、以下のように語っている。 用意した声明の中で、彼女はこの現象についての懸念を表明し、インターネットを「自分自身を食べる暗黒の巨大な」と表現している。 しかし、それが自分の公共のイメージに影響を及ぼさないこと、そして国によって法律が異なること、インターネット文化の性質()によりディープフェイクを削除するどのような試みも無駄な努力になること、以上の考えから、彼女は、自分のディープフェイクの削除を試みようとはしないと述べた。 彼女は、自分自身のような有名人は名声によって保護されているが、一般女性にとっては、不本意なポルノやリベンジポルノの描写によって評判が損なわれる可能性のある深刻な脅威をもたらす、と考えている。 英国では、ディープフェイクの製作者をで起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている。 米国では、、、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある。 などのポルノ動画サイトでは、日本人女優やアイドルのディープフェイクの動画があり、が確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもあった。 サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4678件のディープフェイク動画が確認され、1年で倍増しており、その96%がポルノ動画だった。 ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという。 政治 [ ] ディープフェイクは、有名な政治家を、ビデオやで、事実と異なるかたちで伝えるために使用されている。 例えば、大統領のの顔はの顔に、そしての顔はの顔に置き換えられた。 トランプがを訪問していた2017年11月に中国企業の ()は流暢なを話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ。 2018年4月、とJonah Peretti は、ディープフェイクの危険性に関するとして、を使ったディープフェイクを作成した。 2019年1月、は、(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった。 メディア [ ] 中国では国営メディアのがディープフェイクの技術を用いて実在のから合成した世界初の人工知能が開発されており 、政府の重要な会議の報道でも使用された。 この技術はやの国営メディアでも採用されている。 しかし、ディープフェイクは虚偽報道であるを助長させるとして問題視されており 、2019年11月に中国政府はからディープフェイクを使用したフェイクスニュースを禁止することを発表した。 ディープフェイクのソフトウェア [ ] 2018年1月、FakeAppというのが発表された。 このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。 このアプリケーションは、フェイクビデオを生成するために、、のパワー、そして3〜4のスペースが必要である。 詳細な情報については、プログラムは、ビデオおよび画像に基づくのを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。 そのソフトウェアは、の-であるを使用する、それは、とりわけコンピュータビジョンのプログラムである()のためにすでに使用されていた。 はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている。 2018年8月研究者は、人工知能を使って子供をプロのに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した。 2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるが物議を醸し 、アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった。 フィクションにおけるディープフェイク [ ] ディープフェイクや有名人のフェイクポルノの現象は、 Michael Grothaus による小説「 Epiphany Jones」で探求されている。 この小説は、文学的な、社会、であり、セックス、有名人、インターネット対するアメリカの強迫観念についての暗いである、またポルノ中毒者と神と話すことができると考える女との不本意な関係、およびハリウッドエリートへ性的なを行う業者との交絡を探る内容である。 小説の主人公、ジェリー・ドレスデンは、有名人のフェイクポルノへの中毒に苦しんでいる。 小説で言及されている特定の有名人の偽物には、 、、、、、、が含まれる。 さらに、とといった死亡した有名人の偽物についても小説に記載されている。 批評 [ ] 悪用 [ ] スイスに本社を置く新聞社であるAargauer Zeitung は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。 しかし、画像やビデオの改ざん自体は、やの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある。 標的を絞ったやリベンジポルノにディープフェイクを使用することも可能である。 信頼性と信憑性への影響 [ ] ディープフェイクのもう1つの効果は、その内容が標的となった偽物(例えば)なのか本物なのかを区別できなくなることである。 人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報との信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。 最重要な落とし穴は、描写されているが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである。 インターネットの反応 [ ] やGfycatなどのいくつかのでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。 以前、チャットプラットフォームのは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。 ポルノグラフィのウェブサイトの もそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている。 Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditのサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた。 2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」追加した。 参考文献 [ ]• Brandon, John 2018年2月16日. Fox News. 2018年2月20日閲覧。 Schwartz, Oscar 2018年11月12日. The Guardian. 2018年11月14日閲覧。 Highsnobiety. 2018年2月20日. 2018年2月20日閲覧。 The Outline. 2018年2月28日閲覧。 Roose, Kevin 2018年3月4日. The New York Times. 2018年3月24日閲覧。 Roettgers, Janko 2018年2月21日. Variety. 2018年2月28日閲覧。 2018年2月20日閲覧。 Kharpal, Arjun 2018年2月8日. CNBC. 2018年2月20日閲覧。 PCMAG. 2018年2月20日閲覧。 , Motherboard, 2017-12-11 ,• The Washington Post Harrell. 2019年1月1日閲覧。 BuzzFeed. 2020年1月15日閲覧。 az Aargauer Zeitung 2018年2月3日. 2019年1月26日閲覧。 Patrick Gensing 2018年2月22日. 2019年1月26日閲覧。 Thatsmags. com 2017年11月10日. 2019年9月3日閲覧。 2017年12月3日. 2019年9月3日閲覧。 Romano 2018年4月18日. Vox. 2018年9月10日閲覧。 Swenson 2019年1月11日. The Washington Post. 2019年1月11日閲覧。 2019年3月6日. 2019年6月24日閲覧。 2019年3月6日. 2019年6月24日閲覧。 Asia One 2019年6月14日. 2019年6月24日閲覧。 2019年6月18日. 2019年6月24日閲覧。 The Verge 2019年11月29日. 2019年11月30日閲覧。 de ,• heise online, ,• Farquhar, Peter 2018年8月27日. Business Insider Australia. 2018年8月27日閲覧。 The Verge. 2018年8月27日閲覧。 2019年9月2日. 2019年9月3日閲覧。 2019年9月3日. 2019年9月3日閲覧。 2019年9月5日. 2019年9月5日閲覧。 Chopin. nydailynews. com. 2018年12月31日閲覧。 , Die Zeit, 2018-01-26 , ,• Engadget. 2018年4月21日閲覧。 BuzzFeed. 2018年4月21日閲覧。 barbara. wimmer, ,• 2019年1月26日閲覧。 関連項目 [ ]• 外部リンク [ ]•

次の

乃木坂 アーカイブ

ディープフェイクポルノ 乃木坂

ページコンテンツ• 現在は動画を合成する技術も進化していて、AIを使って偽物の動画、いわゆるフェイク動画がつくられる事例が増えています。 昨年は、米国の前大統領オバマ氏が、トランプ大統領ののしる動画が公開され、話題になりました。 先日は、米民主党のナンシー・ペロシ下院議長が酔っぱらってインタビューに答える動画が公開され、話題になっています。 これらは、誰かが意図的につくったフェイク動画です。 従来は、画像の音声だけを別のものに入れ替えて、元の動画とは全く別の内容にしてしまうアテレコや、音声を早回しにしたり、遅くして低い声にするような、簡単な方法で作られていました。 これらは「シャローフェイク」と呼ばれます。 現在は、AIを使って高度に合成する「ディープフェイク」と呼ぶ技術が注目されています。 マツコ・デラックスが力士になって、インタビューに答える動画 これは、よく出来ていますね。 体や声は、元の力士のものだと思います。 顔の部分だけマツコ・デラックスに入れ替えられています。 顔のすげ替えがすごく自然にできているのは、マツコ・デラックスの顔の輪郭が力士に似ているからでしょう。 表情は、違和感ないです。 全体を見れば、違和感があるのですが、顔に注目すると、本人が喋っているような感覚になってきます。 元の力士の声も、マツコ・デラックスに似ているのでしょう。 ディープフェイクとは、ここでは2つの動画を対応づける部分にAIが使われています。 まず、元の力士の目、鼻、口など、顔の要素を正確に認識し、その位置と動きを捉えます。 そして、別に用意しているマツコ・デラックスの動画か写真から、同様に、目、鼻、口など、顔の要素を正確に認識して、対応する部分に画像を貼り付けます。 画像を貼り付けるときに、引き伸ばしたり縮めたりしますが、これは従来技術で簡単にできます。 難しいのは、顔の要素を細かく分解して認識させ、別の画像と対応づけることです。 実は、AIは人間が「これが目」と認識するように、意味を理解していません。 あくまでもパターン認識で対応づけるので、間違えることが多い。 自然に対応づけるのは、かなり難しい技術なのです。 今のところは、少しぎこちない動きや表情になるので、よく見れば分かってしまいます。 でも、数秒程度の短い動画クリップだと、フェイク動画かどうかよくわかりません。 さらに、フェイク動画だとわかっていても、面白半分でTwitterなどで拡散されてしまうこともあるでしょう。 一旦広まったデマを取り消すのは大変です。 GAN(Generative Adversarial Networks)とは、敵対的生成ネットワークと呼ばれるこの技術。 入力データを大量に与えることで、データだけから特徴を抽出することができ、教師データと呼ぶ正解を人間が教えなくてもいい、という点が特長です。 GANは本物に似せてフェイク画像をつくる仕組みと、それを偽物かどうか見破る仕組みを、戦わせます。 偽札を作る人と警察が協力して、警察にもバレないような偽札を完成させるようなものです。 警察のレベルも学習によって上がるので、偽札づくりのレベルも、どんどん上がっていきます。 AIの中に、悪人と善人が同居して、お互いにレベルを上げながら、最終的に悪人が勝つ、という仕組みなのです。 GANは本来は善人を生み出すためにつくられたのですが、悪人をつくるためにも利用できてしまった、というわけです。 フェイク動画にGANを適用して進化させると、どんどん巧妙な合成ができるようになります。 巧妙になるディープフェイク動画を検出するツール開発の動きもあります。 でも、検索してみると、怪しいサイトに誘導されたり、有料だったりするので、素人は手を出さない方が良さそうです。 パソコンで動画合成する場合は、かなり高性能なCPUやGPU(グラフィックカード)が必要になります。 そうやって苦労して作った割には、出来上がった動画の品質はいまひとつだったりします。 話題になるほどの完成度に仕上げるのは、簡単ではありません。 従来は、かなりお金をかけても難しかったものが、現在ではある程度の投資で作れるようになった。 というレベルです。 自分で作るのではなく、ときどき話題になる動画を見て、へ~、AIの進化はここまで来たか、と確認する程度がいいでしょう。 では、代表的なアプリ、Webサービスをご紹介していきましょう。 FakeApp(動画のAI合成アプリ、無料) 高性能PCが必要です。 具体的には、高性能のグラフィックカード(NVIDIAのGPUチップ)が必要で、これだけで数万円から10数万円。 PC本体も併せると、パソコンのハードだけで20~50万円くらいかかりそうです。 さらに動画の合成には何時間もかかります。 ハードの性能が低いと、処理が完了するまで何日もかかります。 動画合成用の専用パソコンを用意して、気長に待つ必要があります FakeApp 2. 0 Tutorial (ソフトのインストールから、使い方まで解説) 3. FaceSwap GitHub、オープンソースのプログラム、開発ができる人向け) ソフトは無料ですが、自分でソフト開発できる環境が必要です。 かなり玄人で、細かい調整を自分でやりたい人向けです。 現在は公開禁止になっています。 今でも、いくつかのサイトではダウンロードできるような表示がありますが、本当に使えるのか怪しいです。 当然、本人のヌード写真が現れるわけはなく、顔だけ本人のものを残して、体の部分を他人のヌード写真から合成している筈です。 合成が自然にできれば、あたかも本人のヌードのように見えるというだけです。 手間をかければ、人力でも合成できますが、1クリックで簡単にできるようにしたところが凄い。 AIを使って、本人の顔画像から、合成しやすいヌード画像を探し出して、自然に合成するところまで、自動化したのでしょう。 ある意味単純作業ですから、AIが得意とする領域です。 技術が進歩すると、こういうソフトも簡単に作れるようになります。 でも、アップした個人の顔画像が永久にアプリ会社で再利用されてしまう、とんでもないプライバシーポリシーが設定されていたと、大ブーイングとなりました。 ビックリですが! 6. iPhoneで超簡単、ディープフェイク動画アプリ「Xpression」 iPhone(iOS)アプリで簡単にディープフェイク動画がつくれるアプリが登場しました。 現在も普通にダウンロードできて、使えます。 日本企業が開発しているのも安心なところ。 できるのは、口や顔の表情だけを入れ替えること。 顔自体を入れ替えることはできません。 でも、上手く使えば、パーティーとかで盛り上がるにはちょうどいい感じ。 真面目な使い方では、寝起きで頭ぼさぼさで電話会議に出るときに、このアプリを使えば、スーツで決めたカッコイイ姿で登場できる、とか。 色々な使い方を考えるだけでも、楽しいですね! 実は、このアプリ、「EmbodyMe」という日本のベンチャー企業が開発していて、高い技術力をアピールするデモソフトとしての役割が強いようです。 技術的には、顔自体を入れ替えることもできそうですが、そこまでやると悪用される可能性が高くなる。 技術力をアピールしながら、遊びの範囲で使ってもらうために、あえて機能を制限している感じです。 ここまで見てきたように、ディープフェイクの技術はどんどん進化しています。 しかし、まだ素人がフェイク動画をつくるのは簡単ではありません。 今後仮に、簡単につくれるようになっても、トラブルを避けるには、安易に手を出さないことが重要です。 一歩間違えれば、犯罪にもなりかねません。 目を疑うような動画を見たときに、簡単に騙されないこと フェイク動画かも? と思えるだけの、知識と心の余裕を持ちたいですね。 ではでは。

次の