미국 34개 주에서 페이스북과 인스타그램의 소유주 메타가 플랫폼을 사용하는 미성년자를 부적절하게 조작했다고 비난하며 소송을 제기했습니다. 이러한 발전은 텍스트와 생성 AI 모두를 포함하는 인공 지능(AI)의 급속한 발전 속에서 이루어졌습니다.
정부 소송 당사자는 진행 Meta의 수석 AI 과학자가 최근 기술의 실존적 위험에 대한 우려가 아직 “조기”라고 말했음에도 불구하고 법적 조치를 취했으며 Meta는 이미 AI를 활용하여 플랫폼의 신뢰와 안전 문제를 해결했습니다.
각 주의 변호사들은 문서에 언급된 각 주에 대해 서로 다른 손해배상, 배상 및 보상을 모색하고 있으며, 그 금액은 주장된 사건당 5,000달러에서 25,000달러에 이릅니다. Cointelegraph는 더 많은 정보를 얻기 위해 Meta에 연락했지만 아직 응답을 받지 못했습니다.
한편, 영국에 본부를 둔 인터넷 감시 재단(IWF)은 AI가 생성한 아동 성적 학대 콘텐츠(CSAM)의 우려스러운 확산에 대한 우려를 제기했습니다. 최근에는 보고서IWF는 단 한 달 만에 단일 다크 웹 포럼에서 20,254개 이상의 AI 생성 CSAM 이미지를 발견했다고 밝혔으며, 이러한 불쾌한 콘텐츠의 급증으로 인해 인터넷이 범람할 가능성이 있다고 경고했습니다.
조직은 CSAM 문제를 해결하기 위한 글로벌 협력을 촉구하며 기존 법률 조정, 법 집행 교육 강화, AI 모델에 대한 규제 감독 구현 등 다각적인 전략을 제안했습니다.
AI 개발자와 관련해 IWF는 AI가 아동 학대 콘텐츠를 생성하는 것을 금지하고 관련 모델을 제외하고 해당 콘텐츠를 모델에서 제거하는 데 집중할 것을 권고했습니다.
AI 이미지 생성기의 발전으로 실물과 같은 인간 복제본 생성이 크게 향상되었습니다. Midjourney, Runway, Stable Diffusion 및 OpenAI의 Dall-E와 같은 플랫폼은 사실적인 이미지를 생성할 수 있는 도구의 인기 있는 예입니다.
이 글을 NFT로 수집하세요 역사상 이 순간을 보존하고 암호화폐 공간에서 독립적인 저널리즘에 대한 지지를 보여주기 위해.