公開:

チャイルド・ファンド・ジャパンが生成AIによるCSAMの課題に関するオンラインイベントを12月20日に開催、アメリカと韓国の先進事例から学ぶ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

チャイルド・ファンド・ジャパンが生成AIによるCSAMの課題に関するオンラインイベントを12月20日に開催、アメリカと韓国の先進事例から学ぶ

PR TIMES より


記事の要約

  • チャイルド・ファンド・ジャパンが生成AIによるCSAMに関するイベントを開催
  • アメリカと韓国の先駆的な取り組みから課題と現状を学習
  • 生成AIによる児童性的虐待コンテンツへの対策を強化

チャイルド・ファンド・ジャパンが生成AIによるCSAMの課題に関するイベントを開催

特定非営利活動法人チャイルド・ファンド・ジャパンは、生成AIによる児童性的虐待コンテンツの課題と現状について理解を深めるオンラインイベントを2024年12月20日に開催することを発表した。このイベントでは既に生成AIによるCSAMを違法とし法制度を整備しているアメリカと政府の対応が迅速な韓国の事例を取り上げる予定だ。[1]

チャイルド・ファンド・ジャパンが実施した世論調査では約70%の人々が生成AIによる児童の性的コンテンツへの規制を支持する結果が示された。子ども支援団体として子どものオンライン性搾取をなくす取り組みを継続的に行っており、セミナーやシンポジウムの開催、啓発アニメ動画の制作などを通じて活動を展開している。

チャイルド・ファンド・ジャパンは1975年から活動を開始し、アジアを中心に貧困層の子どもたちの健全な成長と地域の自立を支援する国際協力NGOとして実績を重ねてきた。SDGsの目標達成に向けた取り組みの一環として目標16.2「子どもへの暴力をなくす」の実現を目指し、啓発活動やアドボカシー活動を精力的に展開している。

CSAMに関するオンラインイベントの概要

項目 詳細
開催日時 2024年12月20日(金)16:00-17:00
開催形式 オンライン(Zoom
申込締切 2024年12月19日(木)23:59
参加費 無料
プログラム内容 アメリカの事例紹介、韓国の事例紹介、Q&A
イベントの申し込みはこちら

CSAMについて

CSAMとは「Child Sexual Abuse Material」の略称で、児童性的虐待コンテンツを指す用語である。主な特徴として以下のような点が挙げられる。

  • 児童の性的搾取や虐待を含むあらゆる形態のコンテンツ
  • 実在・非実在を問わず児童の性的表現を含む素材
  • 生成AIの発展により作成・拡散のリスクが増大

生成AIの急速な進化と普及により、CSAMの作成と拡散が容易になっている状況を踏まえ、法整備や社会的な対策が急務となっている。チャイルド・ファンド・ジャパンの世論調査でも約70%の人々が規制の必要性を認識しており、国際的な取り組みの重要性が高まっているのだ。

参考サイト

  1. ^ PR TIMES. 「【12月20日】生成AIによる児童性的虐待コンテンツ”CSAM”の課題と現状について理解を深めるオンラインイベント開催 | 特定非営利活動法人チャイルド・ファンド・ジャパンのプレスリリース」. https://prtimes.jp/main/html/rd/p/000000086.000008076.html, (参照 24-12-13).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧
「AI」に関するニュース
「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。