> 기술 주변기기 > 일체 포함 > 4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

PHPz
풀어 주다: 2023-05-27 16:25:39
앞으로
1065명이 탐색했습니다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

저자 우 페이닝 리 슈이칭

편집 | 신 위안

최근 며칠간 새로운 AI 사기가 전국적으로 폭발적으로 늘었습니다.

과거 위조된 AI 논문과 뉴스가 있었고, 이후 AI에 의해 얼굴이 바뀌었다는 의혹을 받은 양미와 딜라바가 생방송실에 등장해 굿즈를 판매하기도 했습니다. 어제 내몽골 바오터우에서 'AI 통신사기 10분 만에 430만 위안 사기' 사건이 웨이보에 퍼지며 전국적인 관심을 끌었다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

오늘 아침, 미국 주식 시장을 급락시킨 펜타곤 폭발 사진 세트가 공식적으로 가짜로 확인되었으며 AI가 합성한 것으로 의심됩니다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

AI 기술이 새로운 구현의 물결을 일으키면서 AI 딥페이크 콘텐츠가 전 세계적으로 급속도로 퍼지고 있어 업계에 큰 우려를 불러일으키고 있습니다.

2019년 초, Zhixixi는 딥 페이크 AI 얼굴 변경 블랙 제품에 대해 조사 및 보고했습니다("AI 얼굴 변경 블랙 제품: 100위안 패키지 200개 얼굴 변경 에로틱 영화, 5장의 사진으로 동영상을 맞춤 설정할 수 있음"). 년, 딥페이크 위조 기술과 딥페이크 방지 기술 간의 경쟁이 계속되고 있으며 관련 부서에서는 규제 법률 및 규정을 점차 개선하고 있습니다. 현재 GPT-4로 대표되는 AI 대형모델 기술의 반복적인 진화로 딥페이크 콘텐츠가 다시 등장하며 전 세계적으로 더 큰 혼란을 일으키고 있다.

기사부터 사진까지, 사람의 목소리부터 영상의 역동적인 효과까지, 온갖 수법으로 대중을 속일 수 있으며, 적발하기 어려운 다양한 사기 수법이 존재합니다. . 많은 젊은이들은 이러한 AI 위조 콘텐츠의 진위 여부를 구별하기 어려운 반면, 노인과 어린이는 속일 가능성이 더 높습니다. 그리고 범죄자들이 그들의 신뢰를 이용해 범죄를 저지르면 그 결과는 비참할 것입니다.

인공지능 기술 전문가는 Zhidongzhi에게 현재의 AI 심층 위조 기술로 생성된 오디오 및 비디오 콘텐츠를 일반 사람들이 육안으로 식별하는 것은 매우 어렵다고 말했습니다.

기존 사기는 AI로 포장된 '새 코트'에 입혀 더욱 숨겨지고 감지하기 어려워졌습니다. 이러한 새로운 AI 사기는 어떻게 작동하나요? 구별하기 어려운 가짜 AI 콘텐츠를 탐지하는 방법은 무엇입니까? 산업 혼란의 해결책은 무엇인가? 이 기사에서는 시장에 나와 있는 다양한 새로운 AI 사기를 분류하고 분석하여 이러한 문제에 대해 심층적으로 논의합니다.

1. 10분짜리 변태 영상으로 430만 위안 사기 당했다 4가지 새로운 AI 사기

올해 3월, 테슬라 CEO 일론 머스크와 애플 공동창업자 스티브를 비롯해 미래생명연구소 공식 홈페이지에 '대규모 인공지능 연구 중단'이라는 제목의 공개 서한이 게재됐다. • 수천 명의 과학자와 기업 임원들이 스티브 워즈니악(Steve Wozniak)과 다른 사람들은 GPT-4 이상의 버전 개발에 대한 유예를 요구하는 청원서에 서명했습니다. 그들은 모두 강력한 AI 기술의 부정적인 사용 가능성을 지적합니다.

AI의 부정적인 용도는 우리가 상상하는 것보다 훨씬 빠르게 폭발하고 있습니다. AI 기술 역량이 반복과 구현을 가속화하면서 AI 위변조가 쉬워지고, 콘텐츠가 더욱 현실화되고, 음성·얼굴 변화로 인한 악랄한 사건이 끊이지 않고 발생하고 있다. 많은 사람들은 '그림과 진실', '보는 것이 믿는 것'이라는 상식이 역사상 가장 강력한 충격을 받은 것 같다고 느낀다.

1. 얼굴교환 영상 : 10분만에 430만 사기

아마도 AI의 얼굴 변화로 인한 많은 악순환이 이미 우리 주변에서 발생했지만 우리는 아직 이를 인지하지 못했습니다.

최근 내몽골 바오터우시 공안국 인터넷 조사부에서 AI를 이용한 통신 사기 사건을 적발했는데, 범인은 친구 명의로 가장해 급히 돈이 필요하다고 주장했습니다. , 위챗 영상을 통해 피해자 궈씨에게 전화를 걸었습니다.

친구에 대한 신뢰와 화상 채팅을 통해 상대방의 신원을 이미 확인한 후 Guo 씨는 경계심을 풀고 두 번의 송금으로 430만 달러를 범죄자의 은행 카드로 이체했지만 소위 WeChat The " 영상 통화 속 '친구'는 AI 얼굴 변화 기술로 만들어집니다. 범죄자들은 ​​인공지능(AI) 얼굴 변화 기술을 이용해 친구인 척하며 통신 사기를 저질렀다. 현재 경찰에 단속되어 회수한 돈은 336.84만원이고, 송금한 돈은 931.6만원이다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

AI 얼굴 변경은 상대방의 신뢰를 얻는 가장 쉬운 사기 방법입니다. 사기꾼은 AI 기술을 사용하여 피해자에게 친숙한 사람의 얼굴을 변경한 후 상대방에게 전화하여 정보를 확인하는 경우가 많습니다.

이러한 새로운 유형의 사기에 대비하려면 첫째, 개인정보를 보호해야 하며, 개인정보와 관련된 정보를 타인에게 쉽게 제공하지 말고, 낯선 링크를 클릭하거나 낯선 소프트웨어를 마음대로 다운로드하지 마십시오. 다양한 채널을 통해 상대방의 신원을 확인해야 하며, 잠재적인 위험에 주의해야 합니다.

"AI 얼굴 바꾸기" 기능과 매우 유사한 기능은 "AI 옷벗기"입니다. 올해 3월 초에는 '한 여성의 지하철 사진이 클릭 한 번으로 옷이 벗겨진 채 AI가 유포했다'는 뉴스가 화제가 됐다. 범죄자들은 ​​인공지능 소프트웨어를 이용해 여성을 비방하는 악의적인 정보를 유포하기도 했다.

이런 '원클릭 옷벗기' 기술은 이미 2019년 초 해외에서 등장했지만, 대중의 광범위한 논란과 비난으로 인해 해당 프로젝트는 빠르게 종료되어 진열대에서 사라졌습니다. 올해 AI 열풍 속에서 이런 나쁜 풍조가 다시 중국으로 확산됐다. 인터넷에서 'AI', '드레스업', '소프트웨어' 등의 키워드 조합으로 검색하면 여전히 깊숙이 숨겨진 관련 소프트웨어를 많이 찾을 수 있다. 관심 있는 사람들은 이를 이용해 음란물과 음란물을 제작하고 유포할 수도 있습니다. AI 영상 여장 서비스는 완전한 체인을 갖춘 블랙 산업이 되었습니다.

"얼굴 바꾸는 AI"는 영화 및 TV 드라마의 2차 창작, 재미있는 스푸핑 영상, 표현팩 제작 등에서 널리 활용되어 왔지만, 숨겨진 법적 위험과 침해 분쟁도 무시할 수 없습니다. 최근 Qicchacha 공식 웹사이트 정보에 따르면, Shanghai Houttuynia Information Technology Co., Ltd.는 얼굴 교환 모바일 앱 중 하나에 대해 많은 인터넷 유명 블로거들로부터 고소당했습니다.

▲App Store에는 거의 100개에 달하는 “얼굴 변화 AI” 애플리케이션이 있습니다

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

앞서 '특수효과 합성자 홍량'이라는 비디오 블로거는 TV 시리즈 '너는 나의 영광'의 남자 주인공 양양의 얼굴을 AI 얼굴 변경 기술을 통해 자신의 얼굴로 대체한 영상에서 결국 얼굴이 공격을 당했다. 주연 배우의 팬으로 많은 네티즌들의 관심을 끌었다.

▲ '특수효과 신디사이저 홍량' 계정에 올라온 일부 AI 합성 얼굴 변화 영상

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

이 비디오 블로거는 남자 스타의 얼굴 스와핑을 속임수로 사용했지만 실제로는 영화 및 TV 특수 효과 제작에 대한 유료 강좌로 트래픽을 유도하기 위한 것이었습니다. 그러나 그의 행동은 딜무라트 딜라바(Dilmurat Dilraba)와 같은 배우들에게 침해를 초래했습니다. 그리고 TV 시리즈에 출연한 양양. '쿠르스트'가 인기를 얻은 후 많은 팬들이 TV 시리즈판 '서유기'와 줄거리 클립을 교환해 다시 제작하기도 했는데, 이는 인기와 화제성 측면에서 TV 시리즈의 인기에 기여했지만, 그 배우가 TV 시리즈에 만족하지 못해서 문제를 일으켰어요.

이렇게까지 트래픽을 빨아들이는 행위는 얼굴이 변한 연예인과 기술에 대해 궁금해하는 대중 모두에게 부정적인 영향과 문제를 안겨주었습니다.

2. 사운드 합성: 인간의 목소리를 복제하여 미스터리를 숨깁니다

과거에는 'AI 스테파니 선'이 인기를 끌었고, 이후 AI 인간 음성 복제 기술이 인기를 끌면서 많은 악순환과 관련 피해자가 발생하기도 했습니다.

한 네티즌은 미국의 유명 가수 프랭크 오션의 노래 클립을 이용해 자신의 음악 스타일을 모방한 노래를 훈련시켰고, 이러한 '음악 작품'을 언더그라운드 음악 포럼에 올렸으며, 이 노래들이 2019년 11월 29일에 실수로 유출된 버전인 것처럼 위조했습니다. 녹음은 마침내 통과되어 거의 970달러(6,700위안에 해당)에 판매되었습니다.

얼마 전 스페인의 영화제작사인 피바디필름(Peabody Films)에서도 AI 전화사기 피해를 입었습니다. 사기꾼은 유명 배우 베네딕트 컴버배치를 사칭하며 해당 회사의 영화가 불법이라고 주장했습니다. 하지만 회사는 먼저 200,000파운드(약 170만 위안 상당)의 보증금을 이체해야 하며 그 후 구체적인 협력 세부 사항을 논의할 수 있습니다.

영화사는 뭔가 이상하다는 사실을 인지했고, 배우 소속사에 확인한 결과 처음부터 끝까지 AI 사기라는 사실을 발견했습니다.

외국에서도 인공지능 복제 음성을 이용해 사기와 강탈을 저지르는 사례가 많으며, 금액이 최대 100만 달러에 달하는 경우도 있습니다. 이러한 유형의 사기꾼은 전화 녹음이나 기타 자료에서 누군가의 음성을 추출하여 음성을 합성한 다음 위조된 음성을 사용하여 지인을 속이는 경우가 많습니다. 따라서 지인도 자신의 목소리를 위조하는 경우가 있으므로 대중은 주의해야 합니다.

5월 22일 미국 CBS TV 뉴스 매거진 프로그램인 60 Minutes에서는 해커들이 음성을 복제하여 동료를 속이고 여권 정보를 훔치는 데 성공하는 모습을 생중계했습니다.

▲60분 트위터에 풀영상 업로드

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

해커가 AI복제를 통해 샤린의 음성을 복사하고, 도구를 이용해 휴대폰 발신자 이름을 바꾸는 데는 단 5분밖에 걸리지 않았고, 샤린의 이름, 여권번호 등을 쉽게 알아내는 데 성공했습니다. 정보.

3. 가짜 사진: 트럼프는 "체포"되었고 교황은 캣워크에서 다운 재킷을 입었습니다

AI 얼굴 바꾸는 영상이 압도적으로 퍼지면서 AI 가짜 사진이 더욱 만연합니다.

동부 표준시 기준 5월 22일, 펜타곤 근처에서 폭발이 발생한 사진이 소셜 미디어에 입소문을 냈습니다. 이 허위 사진이 널리 유포되면서 S&P 500 지수는 단기적으로 약 0.3% 하락해 장중 최저치를 기록하며 상승에서 하락으로 전환하기도 했습니다.

미국 국방부 대변인은 이 사진도 AI가 생성한 가짜 사진임을 즉각 확인했습니다. 이 사진에는 가로등이 약간 구부러져 있고 보도에 울타리가 자라는 등 AI가 생성한 특성이 명백하게 담겨 있었습니다.

Midjourney가 생성한 1990년대 커플 사진은 네티즌들이 진짜인지 가짜인지 구별하기 어렵게 만들었습니다. 지난 3월, 트럼프 전 미국 대통령이 체포되는 사진 여러 장이 트위터에서 입소문을 냈습니다.

사진 속 트럼프는 경찰에 둘러싸여 당황하고 당황한 표정으로 땅바닥에 쓰러져 있다. 재판 과정에서 그는 얼굴을 가리고 통곡했고, 습하고 어두운 감방에서 죄수복도 입었다. 이미지는 시민 저널리즘 웹사이트 Bellingcat의 창립자인 Eliot Higgins가 Midjounrney를 사용하여 제작했습니다. 해당 사진이 게재된 뒤 그의 계정도 차단됐다.

▲Midjounrney가 생성한 트럼프 “체포” 이미지 세트

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

'트럼프 체포 사진'이 공개된 지 얼마 지나지 않아 프란치스코 교황이 파리 월드 다운재킷을 입은 사진이 인터넷에서 소란을 일으켰고, 공개된 지 얼마 지나지 않아 조회수는 2,800만 회를 넘어 많은 네티즌들의 믿게 만들었습니다. 그것.

▲교황이 발렌시아가 다운재킷을 입고 런웨이에 나섰습니다

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

크리에이터 파블로 자비에르(Pablo Xavier)는 이 사진이 인기를 끌 줄은 몰랐다고 하더군요. 문득 발렌시아가의 다운 재킷, 파리나 로마의 거리 등이 떠올랐어요.

Reddit 포럼의 Midjourney 섹션에는 "2001년 캐스캐디아 규모 9.1의 지진이 오레곤을 황폐화시킨 쓰나미를 일으켰다"는 그룹이 널리 유포되었으며, 사진 속 재난 현장은 구호대원과 언론인, 정부 관계자, 다른 사람들도 속속 등장했고 사람들은 걱정스럽고 겁에 질려 당황한 표정을 지었습니다. 하지만 사실 이것은 완전히 AI가 일으킨 '재난'이고, 역사상 존재하지 않는 일이다. 완벽한 요소와 사실적인 색상을 갖춘 이러한 사진과 장면은 진위 여부를 판단하기 어렵게 만듭니다.

4. 뉴스 편집: AI가 루머 공장이 됨

5월 7일, 간쑤성 핑량시 공안국 사이버보안대는 AI가 허위 정보를 조작하는 사례를 적발했습니다.

범죄자들은 ​​ChatGPT를 사용해 인터넷 전체에서 수집한 핫한 소셜 뉴스를 수정, 편집한 뒤 '오늘 아침 간쑤성에서 도로 건설 노동자를 열차에 치어 9명이 사망했다'는 가짜 뉴스를 편집해 접속한 것으로 알려졌다. 인터넷은 트래픽과 관심을 통해 수익을 창출합니다.

이 뉴스는 공개되자마자 조회수가 15,000회를 넘었습니다. 다행히 여론이 더 악화되기 전에 경찰이 수사에 개입해 피의자가 AI 기술을 이용해 뉴스를 조작한 것으로 확인됐습니다.

피싱 웹사이트에서 AI 가짜뉴스를 독자가 식별해야 할 뿐만 아니라 기성 언론도 AI 가짜뉴스에 속는 경우가 있습니다.

영국 '데일리 메일'(The Daily Mail)은 4월 24일 "22세 캐나다 남성이 한국에서 아이돌 데뷔를 위해 12번의 성형수술을 받고 결국 사망했다"고 보도했다.

▲ 보도에 따르면, 다가오는 미국 드라마에서 K팝 스타 방탄소년단의 지민 역을 연기하기 위해 22세의 캐나다 배우는 12번의 성형 수술에 22,000달러를 지출하고 결국 사망했다고 합니다

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

이 소식은 전 세계 많은 언론의 관심을 끌었으며, 한국의 YTN 뉴스 채널을 비롯한 TV 방송국에서도 이 보도에 대해 즉각적으로 애도와 후회를 표했습니다.

▲고인의 사망 소식에 네티즌들이 안타까움을 표했다

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

그러나 한국 기자와 미국 라디오 방송국 아이하트라디오(iHeartRadio)가 '그 남자는 전혀 존재하지 않을 수도 있다'는 질문을 제기한 후 상황은 완전히 바뀌었습니다. 네티즌들은 확인을 위해 사진을 AI 콘텐츠 탐지 사이트에 가져갔고, 해당 사진이 AI에 의해 생성되었을 가능성이 75%라는 사실을 발견했다. MBC가 경찰에 확인한 결과 "아니오"라는 답변도 나왔다. 유사한 사망 사례도 접수됐다"고 밝혔다. 이 소식은 곧바로 'AI 가짜뉴스'로 확인됐다.

그러나 문제는 아직 끝나지 않았습니다. 이달 초 남성의 가족들은 '가짜 뉴스'를 보도한 언론사와 남성이 소속된 소속사, 그리고 남성이 이 사실을 알린 최초의 기자를 고소하기로 결정했습니다. 죽었다. 해당 사진은 AI가 생성한 사진이 아니며, 남성은 과도한 성형수술로 인한 수술 합병증으로 사망했다는 의미다.

그의 신원을 확인하지도 않고 실질적인 증거도 제시하지 않은 채 많은 언론은 그 남자의 신원과 정보가 편집되어 AI가 일으킨 희극을 비극적인 비극으로 만들었다고 주장했습니다.

AI가 편집한 이러한 뉴스는 대중을 혼란스럽게 할 뿐만 아니라, 전체 내용을 볼 시간과 인내심이 없는 행인들은 진실을 식별하는 능력을 잃게 만듭니다.

2. 'AI' 된 연예인들 : 'AI 스테파니 선' 커버로 히트, 'AI 양미' 굿즈 판매로 변신

AI 기술이 본격화되면 가장 먼저 타격을 받는 것은 예능스타들이다.

최근 인기를 끌고 있는 스테파니 선은 'AI 스테파니'의 등장에 대해 어젯밤 장문의 글을 올렸습니다.

▲스테파니 선이 'AI 스테파니 선' 등장에 반응했다(중국어판)

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

'AI 스테파니 선'의 등장에 대해 보다 관용적인 태도를 취하며 법적 조치를 취하지 않았습니다. 그녀는 "단 몇 분만에 새 앨범을 낼 수 있는 '인간'과 비교할 수 없다"고 말했다. 그 이상.

스테파니 선은 AI가 생성한 음악을 감상하지 않지만 인간이 로봇의 학습 능력을 짧은 시간 안에 따라잡는 것이 참으로 어렵다는 반응을 보면 어렵지 않게 이를 치료하기로 결정했습니다. 핫한 노래 커버 영상을 무심코.

가수 스테파니 선은 AI 커버로 가장 먼저 대중의 주목을 받았다. 그녀는 독특한 음색과 노래 스타일로 인해 네티즌들의 AI 기술 덕분에 많은 인기곡에 대한 적응력이 높다. '커버'는 '눈 같은 머리카락', 'Rainy Day', 'I Remember' 등의 곡이 모두 조회수 100만 회를 넘었다.

▲'AI 스테파니 선'의 가장 많이 재생된 곡

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

AI가 '커버'한 가수는 Stefanie Sun뿐만 아니라 AI Chou Jay, AI Cyndi Wang, AI Tengger 등도 속속 등장했습니다.

스테파니 선은 법적 책임을 추구하지 않기로 결정했지만, AI 기술이 상업적 이익을 침해하고 법적 한계선을 건드릴 정도로 남용된 경우에도 적시에 합법적인 권익을 보호해야 합니다.

중국 뉴스 네트워크에 따르면 최근 많은 생방송 방에서 AI를 활용해 연예인의 얼굴을 바꿔 생방송을 진행하는 경우가 많아 얼굴 교환의 초점이 되고 있습니다. 연예인 얼굴 상품을 운반하는 앵커는 더 나은 교통 기분 전환 효과를 얻을 수 있고, 연예인 효과에 기초한 소비로 소비자나 연예인 팬을 속일 수 있습니다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

얼굴 교환 서비스를 제공하는 웹사이트에 따르면 기성 모델을 구매하고 재료가 충분하다면 30분에서 몇 시간 정도의 이벤트만으로 몇 시간 분량의 영상을 직접 합성할 수 있다고 합니다. 모델 전체 세트의 구매 가격은 35,000위안으로, 연예인을 초대해 상품을 생방송하는 가격보다 훨씬 저렴합니다.

여러 주요 전자상거래 플랫폼에서는 'AI 얼굴 바꾸기', '동영상 얼굴 바꾸기' 등의 키워드가 플랫폼에서 차단되어 있지만, 검색 키워드와 기타 방법을 변경하면 여전히 많은 관련 상품을 찾을 수 있습니다.

얼굴을 바꾸는 AI 기술은 최근에 개발된 것이 아닙니다. 이미 2017년에는 딥페이크(DeepFake)라는 네티즌이 에로영화 속 여주인공의 얼굴을 할리우드 스타 갤 가돗으로 변신시킨 적이 있다. 이후 다수의 신고자들의 불만으로 인해 그의 계정은 공식적으로 금지되었고, 후속 AI 얼굴 변경 기술은 그의 이름을 따서 "DeepFake"로 명명되었습니다.

AI 얼굴 변신은 2019년 초부터 중국에서 큰 인기를 끌었습니다. '콘도르 영웅전'의 배우 황용인 주인의 얼굴을 AI 기술을 통해 양미로 바꾸는 영상이 입소문을 탔습니다. 일부 네티즌들은 침해가 없었다고 주장했고, 일부 네티즌들은 원작 배우의 초상권을 침해할 수 있다는 우려도 제기했다. 이익 창출을 위해.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

▲네티즌들은 '콘도르 영웅전'에서 배우 주인이 연기한 '황롱' 역할을 배우 양미의 얼굴로 대체했습니다

이것은 또한 중국에서 영화 및 TV 드라마의 2차 창작에 AI를 사용하는 초기 시작이 되었습니다.

AI 기술은 오랫동안 범죄자들의 표적이 되어 왔으며 연예계 연예인뿐만 아니라 많은 일반 사람들도 소위 '사생활 사진'으로 협박당했습니다. 사이버보안부 소속 여러 경찰관들은 AI 심층합성 기술에 대한 감독 부족으로 인해 많은 정보보안 위험과 네트워크 통신 혼란이 발생하고, 간접적으로 형사 사건 발생으로까지 이어진다고 말했다.

3. 대규모 AI법 대중화 운동이 등장했습니다. 어떤 행위가 침해되고 불법인가요?

많은 사람들의 초상과 목소리가 무단으로 유포되었으며, 저작권에 대한 논의 없이 오디오, 비디오 제품이 영리 목적으로 사용되었습니다. 게다가 위조된 정보를 이용해 재산 사기를 저지르거나 심지어 납치, 강탈까지 하여 사람들의 개인과 재산에 피해를 입혔습니다. 재산권과 이익.

이러한 상황이 더욱 심각해짐에 따라 사람들은 자신을 보호하기 위해 법적 무기를 들고, 산업 발전에 도움이 되는 대규모 AI 법적 대중화 운동이 이어질 것입니다.

얼굴, 음성 위조가 만연하고 있으며, 가장 먼저 직면한 문제는 개인 사생활 침해입니다. 민법 제1019조는 “어떤 기관이나 개인도 초상권자의 동의 없이는 명예훼손, 훼손, 정보기술 수단을 이용한 위조 등으로 타인의 초상권을 침해할 수 없다”고 규정하고 있다. 또는 타인의 초상권을 침해하는 행위. 법률에 달리 규정된 경우를 제외하고 초상권을 가진 사람의 초상을 사용, 공개하는 행위 더욱 우려되는 점은 위조된 정보일 경우, 정보주체의 손에 있지 않다면 신뢰를 더욱 악용해 국민의 재산권은 물론 건강권까지 침해할 수 있다는 점이다.

개인권 외에도 AI 위조 콘텐츠에 관련된 오디오, 비디오 자료의 저작권 침해 문제도 많은 주목을 받았습니다. 최근 가수 스테파니 선은 자신이 'AI 스테파니'에 무관심하다는 글을 올렸지만, 위조된 사람들은 자신을 보호하기 위해 합법적 무기를 선택하는 경우가 많아졌다. (주)페이스 모바일 앱은 특정 모델 교체에 연루되어 많은 인터넷 유명 블로거들로부터 고소를 당했습니다.

Shanghai Dabang Law Firm의 선임 파트너이자 지적재산권 변호사인 You Yunting은 지적재산권법에 따라 실제 사람의 목소리를 사용하여 인공 지능을 훈련하고 노래를 생성하는 것이 상업적 목적으로 사용되지 않는 한 침해하지 않을 가능성이 높다고 썼습니다. 그래도 먼저 온라인에 게시해야 합니다. 작곡 저작권, 관련 음악 및 비디오 자료에 대한 관련 승인을 받아야 합니다. 인공지능으로 생성된 저작물은 본질적으로 저작권 결함을 갖고 있어 저작권을 향유할 수 없으며 라이선스 비용을 청구해서는 안 됩니다. 이용자가 인공지능을 이용하여 제작한 저작물이 타인에 의해 침해되는 경우에는 부정경쟁방지법에 따라 그 권리를 보호받을 수 있습니다.

실제로 우리나라에서도 인공지능 분야에 일부 특별 규정이 규정되어 있습니다. 중국 사이버 공간 관리국 및 기타 부서는 2022년 12월에 "인터넷 정보 서비스 심층 합성 관리에 관한 규정"을 공포했으며, 25개 규정을 사용하여 심층 합성 기술 사용에 대한 사양을 설명합니다. 여기에는 법률 및 응용 프로그램 등이 포함됩니다. 심층 합성 서비스를 사용하여 타인의 정당한 권익을 침해하는 것을 금지합니다. 유통 플랫폼은 선반 검토, 서비스 제공 및 기술 지원 등의 규정을 구현해야 하며 기술 관리를 강화해야 합니다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

4월 11일, 중국 사이버 공간 관리국은 "생성 인공 지능 서비스 관리 대책(의견 초안)" 초안을 신속하게 작성했습니다. 관련된 생성 인공 지능에는 알고리즘, 모델 및 규칙, 비디오, 코드 및 기타 콘텐츠 기술을 통해 현재의 AI 위조는 포괄적으로 규제되었다고 할 수 있습니다. ("속보! 최초의 국가 AIGC 규제 문서, 의견을 위한 생성적 AI 서비스 관리 조치 발표")

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

그 외, "본국 네트워크 보안법", "중화인민공화국 데이터 보안법", "중화인민공화국 개인정보 보호법", "인터넷 정보 서비스 관리 조치" 그리고 우리나라가 공포한 기타 법률, 행정법규에는 모두 이에 관한 규정이 있으며, 적법한 권익을 보호하기 위한 관련 근거가 될 수 있는 규정이 있습니다.

4. 일반인은 AI 콘텐츠 인식 '방어력'을 갖고, 플랫폼은 책임을 져야 한다

"위조"와 "위조방지"는 AI로 인해 발생하는 것이 아니지만 오늘날의 AI 기술로 인해 "위조"를 구별하기가 더 쉽고 어려워졌습니다. 시장에서 나오는 AI 위조 콘텐츠 앞에서 사람들은 이를 스스로 식별할 수 있는 기술을 가지고 있습니까?

유명 보안 회사인 RealAI의 공동 창립자이자 알고리즘 과학자인 Xiao Zihao는 Zhidongzhi에게 딥페이크 기술이 끊임없이 진화하고 생성된 소리와 영상이 점점 더 현실적으로 변해 일반 사람들이 딥페이크를 하기가 매우 어려워지고 있다고 말했습니다. 육안으로 식별합니다.

"보통 사람들이 이런 상황에 직면하면 영상 중에 상대방이 고개를 흔들거나 입을 벌리는 등의 특정 행동을 하도록 의식적으로 유도할 수 있습니다. 사기꾼의 기술적 수단이 약한 경우 가장자리를 찾을 수 있습니다. 하지만 이 방법은 여전히 ​​'고위' 사기꾼을 식별하기 어렵습니다. 또한, 본인과 차용인만이 알고 있는 일부 개인정보를 요청할 수도 있습니다.”

"자신을 속이는 것을 방지하는 동시에 개인 이미지 보호에도 주의를 기울여야 하며, 범죄자에게 편의를 제공하기 위해 공개 플랫폼에 사진과 동영상을 대량으로 게시하지 않도록 노력해야 합니다. 딥페이크 동영상 제작에 사용되는 원자재는 개인 사진 및 동영상 "데이터가 많을수록 동영상이 더 현실감 있고 식별하기가 더 어려워집니다."라고 Xiao Zihao는 덧붙였습니다.

AI로 인해 사기와 잘못된 정보를 탐지하기가 더 어려워지고 기술 회사와 콘텐츠 배포 플랫폼에 대한 감사가 더욱 중요해졌습니다.

Apple 공동 창업자인 스티브 워즈니악은 최근 한 인터뷰에서 AI 콘텐츠에 명확하게 라벨을 지정하고 업계를 규제해야 한다고 경고했습니다. AI로 생성된 모든 콘텐츠는 게시자가 책임을 져야 하지만, 이것이 대형 기술 회사가 법적 제재를 피할 수 있다는 의미는 아닙니다. 워즈니악은 규제 기관이 대형 기술 회사에 책임을 물어야 한다고 믿습니다.

우리나라에서 공포한 "인터넷 정보 서비스의 심층 종합 관리에 관한 규정"에 따라 콘텐츠 제공자는 규정에 따라 생성된 이미지, 비디오 및 기타 콘텐츠에 라벨을 지정해야 합니다. 실제로 우리는 이미 Xiaohongshu와 같은 국내 소셜 플랫폼에서 특정 예방 역할을 할 수 있는 AI 생성 콘텐츠로 의심되는 것을 보았습니다. 하지만 AI가 생성한 콘텐츠의 마지막 장애물은 사용자 자신에게 있으며, 미디어 플랫폼은 필터링 역할만 할 수 있습니다.

4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다

결론: 네거티브 애플리케이션에 저항, AI 공격과 방어 전투 시작

나날이 발전하는 AI 기술로 인해 텍스트, 이미지, 동영상을 더욱 쉽고 현실적으로 생성할 수 있게 되었습니다. 동시에 딥 페이크 콘텐츠도 만연합니다. 딥 페이크 콘텐츠는 적어도 사람들을 혼란스럽게 하고 영리를 위해 사용될 수 있으며, 최악의 경우 범죄자가 사기나 심지어 강탈 범죄를 저지르는 데 사용될 수 있어 AI 생성 콘텐츠 감독에 대한 긴급한 관심이 모아지고 있습니다.

새로운 AI 사기 수법이 사회적 문제를 야기함에 따라 사용자, 기술 제공자 및 운영자, 콘텐츠 유통 플랫폼, 업계 콘텐츠 생산자 모두가 자제력을 강화해야 합니다. 실제로 우리나라는 사전에 일련의 관련 법규를 공포해 왔으며, 부정적인 AI 적용 이슈가 노출되면서 전국적인 기술법 대중화 운동이 이어져 산업의 건전한 발전이 촉진될 것으로 기대된다.

위 내용은 4가지 새로운 AI 사기를 조심하세요! 누군가 10분 만에 430만 달러를 사기당했습니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:sohu.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿