호주의 Esafety Commission은 Google의 공개를 “세계 최초의 통찰력”이라고 불렀습니다. 사용자가 기술을 활용하여 유해하고 불법적 인 컨텐츠 (파일) | 사진 크레디트 : 로이터
Google은 호주 당국에 전 세계적으로 250 건 이상의 불만을 거의 1 년 동안 인공 지능 소프트웨어가 Deepfake Terrorism 자료를 만드는 데 사용되었다고 알렸다.
알파벳 소유 기술 대기업은 또한 AI 프로그램을 경고하는 수십 개의 사용자 보고서를 받았다고 밝혔다. 호주의 Esafety Commission에 따르면 Gemini는 아동 학대 자료를 만드는 데 사용되었습니다.
호주 법률에 따라 기술 회사는 EsaFety Commission에 주기적으로 피해 최소화 노력 또는 위험 벌금에 대한 정보를 제공해야합니다. 보고 기간은 2023 년 4 월부터 2024 년 2 월까지 다루었습니다.
Openai의 Chatgpt가 2022 년 후반에 대중 의식으로 폭발 한 이후, 전 세계의 규제 기관이 더 나은 가드 레일을 요구 했으므로 AI는 테러, 사기, 심해 포르노 및 기타 학대를 가능하게하는 데 사용될 수 없습니다.
호주의 Esafety Commission은 Google의 공개를 사용자가 기술을 활용하여 유해하고 불법적 인 콘텐츠를 생성하는 방법에 대한 “세계 최초의 통찰력”이라고 불렀습니다.
Esafety Commissioner Julie Inman Grant는 성명서에서 “이것은 AI 제품을 개발하는 회사가 이러한 유형의 자료가 생성되는 것을 막기 위해 보호 조치의 효능을 구축하고 테스트하는 것이 얼마나 중요한지를 강조한다”고 밝혔다.
보고서에서 Google은 Gemini를 사용하여 제작 된 AI 생성 Deepfake Terrorist 또는 폭력적인 극단주의 콘텐츠에 대한 258 개의 사용자 보고서와 AI 생성 아동 착취 또는 학대 자료를 주장하는 또 다른 86 개의 사용자 보고서를 받았다고 밝혔다.
규제 당국에 따르면 얼마나 많은 불만이 확인되었는지는 말하지 않았다.
Google 대변인은 폭력적인 극단주의 또는 테러, 아동 착취 또는 학대 또는 기타 불법 활동을 촉진하는 것과 관련된 콘텐츠의 생성 또는 분포를 허용하지 않았다고 밝혔다.
대변인은 “우리는 호주인들을 온라인으로 안전하게 유지하는 데 도움이되는 노력을 확대하기 위해 노력하고있다”고 말했다.
“ESAFETY에 제공 한 Gemini 사용자 보고서의 수는 확인 된 정책 위반이 아닌 전체 글로벌 사용자 보고서를 나타냅니다.”
Google은 새로 지원 된 이미지와 이미 알려진 이미지와 자동으로 일치하는 해치 매칭 시스템을 사용하여 Gemini로 만든 아동 학대 자료를 식별하고 제거했습니다.

그러나 그것은 동일한 시스템을 사용하여 테러리스트 나 폭력적인 극단주의 자료를 제미니로 생성하지 않았다고 규제 당국은 덧붙였다.
규제 당국은 Telegram과 Twitter를 벌금을 내며 나중에 X로 이름이 변경되어 보고서에서 단점이라고 불렀습니다. X는 $ 610,500 ($ 382,000)의 벌금에 대한 항소를 잃었지만 다시 항소 할 계획입니다. Telegram은 또한 벌금에 도전 할 계획입니다.
게시 -2025 년 3 월 6 일 오전 10시 33 분 IS