あなたの静岡新聞
▶ 新聞購読者向けサービス「静岡新聞DIGITAL」のご案内
あなたの静岡新聞とは?
有料プラン

テーマ : 教育・子育て

わが子の裸撮らないで! SNS投稿で悪用リスク、生成AIが新たな脅威に

 交流サイト(SNS)やブログなどインターネット上で公開されている子どもの写真。かわいいわが子の成長記録、幼稚園などの活動紹介といった投稿が多いが、画像を第三者に無断で複製されたり、ポルノサイトで共有されたりするなどのリスクが高まっている。

SNSなどの写真投稿で気を付けるべきポイント
SNSなどの写真投稿で気を付けるべきポイント
「オンラインは国を超える。生成AIの法整備は世界全体で取り組むべき課題だ」と話す武田勝彦さん
「オンラインは国を超える。生成AIの法整備は世界全体で取り組むべき課題だ」と話す武田勝彦さん
児童ポルノの閲覧防止に取り組むインターネットコンテンツセーフティ協会のスタッフら
児童ポルノの閲覧防止に取り組むインターネットコンテンツセーフティ協会のスタッフら
SNSなどの写真投稿で気を付けるべきポイント
「オンラインは国を超える。生成AIの法整備は世界全体で取り組むべき課題だ」と話す武田勝彦さん
児童ポルノの閲覧防止に取り組むインターネットコンテンツセーフティ協会のスタッフら


 児童ポルノの閲覧防止に取り組む「インターネットコンテンツセーフティ協会」(東京・ICSA)によると、最近、こんな事例があった。
 ネット上で見つかったのは、お風呂上がりと思われる、裸に近い幼い女児の画像。元々は子育ての日常風景を保護者が撮影し、インスタグラムに投稿したものという。
 第三者によって匿名掲示板「5ちゃんねる」に、幼女の画像を集める目的で転載されていた。既に画像は削除されたが、ICSAの桃沢隼人さんは「何げなく投稿したものも、性的な目的で悪用されるなど、さまざまなリスクがある」と警鐘を鳴らす。
 政府も危機感を強める。こども家庭庁と文部科学省は5月、全国の保育所や幼稚園などに対し、子どもの性的な部位を含む画像などをホームページなどに掲載しないよう注意を促す通知を出した。画像が残っている場合は「至急削除」することを求める。
 新たな脅威となっているのが生成人工知能(AI)だ。認定NPO法人「チャイルド・ファンド・ジャパン」(東京)とICSAが4月に開いたシンポジウムでは英国の団体が、実在の子どもを含む画像から生成された性的搾取の画像の現状について報告。匿名性の高い闇サイト「ダークウェブ」で、約1カ月間に約2500点の違法画像が見つかったという。
 チャイルド・ファンド・ジャパンの武田勝彦事務局長は「現状では、ネット上に画像が公開されてしまった段階で、AIによる加工が可能。こうした画像をAIが無制限に学習してしまうことが問題だ」と指摘。「長期的には法整備が必要だが、プラットフォームを提供する企業による、性的画像の削除などの取り組みが早急に必要だ」と訴える。
 では、SNSなどに写真を投稿する側が気を付けるべき点は? 桃沢さんは「裸など、大人でも『撮られたくない』と感じる姿は撮影しないのが前提」とした上で、「顔などから個人が特定できる場合はスタンプで隠したり、公開範囲を限定したりするなどした方が良い」と助言する。
 武田さんは「子どもにもプライバシーの権利があり、大人が勝手に子どもの写真を公開していいわけではない。家庭でも、ネット利用のルールについて改めて親子で確認し、徹底することが大切です」と話した。

いい茶0
▶ 追っかけ通知メールを受信する

教育・子育ての記事一覧

他の追っかけを読む