> 기술 주변기기 > 일체 포함 > 'AI 사기'가 뜨거운 검색 주제가 됐다. AI가 '출시'된 후 어떻게 '선한 일'을 할 수 있을까? |티타늄 정도에 대한 뜨거운 댓글

'AI 사기'가 뜨거운 검색 주제가 됐다. AI가 '출시'된 후 어떻게 '선한 일'을 할 수 있을까? |티타늄 정도에 대한 뜨거운 댓글

WBOY
풀어 주다: 2023-06-07 10:01:26
앞으로
1103명이 탐색했습니다.

AI 사기가 뜨거운 검색 주제가 됐다. AI가 출시된 후 어떻게 선한 일을 할 수 있을까? |티타늄 정도에 대한 뜨거운 댓글

최근 바오터우시 공안국 통신사이버범죄수사국에서는 지능형 AI 기술을 활용해 피해자가 10분 만에 430만 위안을 사기당한 사건을 공개했다. 'AI 사기'가 화제가 됐다.

AI 기술이 성숙해지면서 현실감과 기만성이 점점 강해지고 있습니다. AI 가수, 연예인처럼 생긴 앵커 등이 '고도의 모방'을 할 수 있다면 사람들은 어떻게 해야 할까요? 예방?

제너레이티브 AI 규격 구축은 현재 어떤 진전이 있나요? AI 기술을 적용하면 법적 위험을 어떻게 피할 수 있나요?

현재 잦은 침해 및 사기 사건이 업계 발전을 제한할까요?

이번 "Tidu Hot Review"호는 AI 사기 "출시" 후 어떻게 AI가 "선한 일을"할 수 있는지에 대해 고위 언론인을 초대합니다. 토론이 진행되었으며 다음은 몇 가지 주요 내용입니다.

자신의 외모와 목소리가 복제될 수 있는 경우 어떻게 주의해야 하는지에 대해 알아보세요.

Bedo Finance의 관리자 Jia Xiaojun은 도구는 중립적이며 핵심은 도구 사용 방법에 있다고 말했습니다. "AI 사기"가 전형적인 예입니다. 일반 사람들의 경우 이러한 유형의 AI 기술로 인해 발생한 사기는 식별하기가 매우 어렵습니다. 특히 사운드와 비디오를 시뮬레이션할 때 더욱 그렇습니다.

AI 사기가 발생할 수 있는 이유는 본질적으로 개인정보 유출로 인한 문제입니다. 상대방이 당사자의 민감한 정보를 파악하고 계좌, 주소 및 기타 정보를 정확하게 제공할 수 있으며, 이를 통해 주소록도 얻을 수 있기 때문입니다. 자금 사용자를 속이는 행위.

보통 사람들은 자금에 관해서 민감성을 유지하고 문제가 있는지 주의 깊게 확인해야 하며 교차 검증을 하고 지갑을 주의 깊게 관찰하는 것이 가장 좋습니다.

규제적 관점에서는 과학기술인력 도입을 강화하고 관련 대응기술을 혁신해 시의적절하고 효과적인 알림과 예방을 제공해야 한다. 동시에 플랫폼 액세스 기준을 강화하고 합리적인 차단 조치를 취할 것입니다.

"고래 플랫폼" 싱크 탱크의 전문가인 Guo Shiliang은 모두가 AI에 대해 이야기하지만 사람들은 AI의 이점을 더 많이 보지만 AI의 부정적인 영향을 거의 보지 못한다고 말했습니다. 10분 만에 누군가 430만 달러를 사기당했다는 점이 핵심인데, 피해자가 돈을 이체하기 전 영상 인증을 통과해 뜻밖의 사기로 판명됐다. -사기 끝. 완벽하게 행동하는 것 같았습니다.

이후 은행의 전폭적인 지원으로 10분 만에 사기계좌에서 336.84만원의 사기자금을 차단하는데 성공했으나, 아직도 931,600위안의 자금이 회수되고 있습니다. AI 사기는 음성합성 기술과 AI 얼굴변환 기술을 모두 활용해 상대방 친구의 연락처까지 침투해 돈을 훔치는 등 매우 교묘하다.

AI 시대의 도래는 시험뿐만 아니라 기회도 가져옵니다. 현재 사기꾼들은 사기를 위해 새로운 기술을 사용하고 있으며 사기 방지 방법도 시대에 발맞춰야 합니다. 전송과 같은 민감한 콘텐츠가 관련될 때마다 모든 사람의 사기 방지 인식이 향상되어야 합니다. AI 시대가 도래하고 관련 법규도 준수해야 하며, 기술이 발전함에 따라 규제 집행 능력과 사기 방지 기술도 시대에 발맞춰야 합니다.

판구씽크탱크 장한 선임연구원은 인공지능 기술이 발전하면서 AI 사기도 나타나기 시작했다고 말했다. AI 사기는 인공지능 기술을 활용한 사기의 일종으로, 공격 빈도가 더 높고, 표적이 더 정확하며, 기만 효과가 더 효율적이라는 점은 기술적 측면에서도 양날의 검이다. 개발. 이러한 사기 행위를 어떻게 보고 대응해야 할까요?

먼저 사기 사건이 잦아지면 모든 사람이 지속적으로 학습 능력을 향상하고 잠재적인 사기 위험을 식별해야 합니다. AI 기술은 기본 데이터 분석, 모델 훈련, 인공지능 의사결정 측면에서 범죄자의 공격 방법을 강화해 왔으며, 소비자가 이러한 사기를 예방하려면 기술적 인식과 위험 식별 능력을 향상시켜야 합니다. 모르는 전화에 응답할 기회를 주지 말고, 속거나 속지 말고, 개인정보와 재산의 보안을 보호해야 합니다.

둘째, 기업은 자율성을 강화해야 하고, 감독은 시장 표준을 안내해야 하며, 개인은 위험 예방 및 통제에 대한 인식을 더욱 강화해야 합니다. AI 기술은 기업에 효율성과 경쟁 우위를 가져다 줄 수 있지만, 혁신과 규정 준수 간의 균형에도 주의를 기울여야 합니다. 특히 사용자 정보 및 개인 정보 보호와 같은 민감한 영역의 경우 기업은 자기 규율과 규정 준수 통제를 강화해야 합니다. 규제 기관의 경우 시장 표준 개발을 안내하고 이러한 불법 및 범죄 행위를 방지하는 것이 필요합니다. 개인의 경우 공공 안전 관리에 적극적으로 참여하고, 사기 예방에 대한 새로운 지식을 습득하고, 잠재적인 사기를 식별하는 능력을 강화해야 합니다.

장기적으로 생성형 대형 모델의 AI 추세는 계속되겠지만, AI를 도구로 사용하여 이를 더 좋게 만드는 방법은 모두가 함께 협력해야 합니다. AI 개발 과정에서는 기술의 규정 준수와 보안에 주의를 기울이고 AI 기술과 전통법, 도덕, 윤리의 실현을 촉진해야 합니다. AI 개발은 단순히 속도와 효율성만 추구할 수는 없습니다. 동시에 인간 본성에 대한 연구를 바탕으로 원래 의도를 염두에 두고 인공지능을 활용하여 사회에 더 나은 서비스를 제공하고 AI 패러다임을 탐색 및 최적화하며 예방해야 합니다. 잠재적인 남용 및 피해를 방지하고 AI의 건강한 발전을 돕습니다.

New Economic Observer Group의 편집장인 Bi Xiaojuan은 속담처럼 기술은 항상 양날의 검이라고 말했습니다. 지난 몇 년간 빅데이터와 공유경제의 발달로 인해 상당한 경제적, 사회적 이익을 가져왔다고 볼 수 있지만, 그 부산물로는 다수의 개인정보 유출, 통신망 사기, 불법행위 등이 잇따르고 있다. 괴롭히는 문자 메시지가 속속 등장했습니다. 그러나 규제 결함에 대한 조사 및 시정, 정책 및 규정의 시기적절한 후속 조치, 예방에 대한 대중의 인식 제고를 통해 유사한 사기 사건이 어느 정도 완화되었습니다.

이제 AI 분야에서도 동일한 과정이 진행되고 있습니다. AI 기술의 상업적 가치는 계속해서 공개되고 있지만 AI 사기꾼을 "하늘을 나는 호랑이처럼" 만들고 있습니다. 즉, 얼굴 바꾸기, 음성 시뮬레이션 및 기타 수단을 통해 사용자의 친척이나 친구인 척함으로써 가짜로 사람을 속일 수 있어 사용자가 구별하기 어렵고 미끼에 매우 쉽게 빠지게 됩니다. 뿐만 아니라, AI 기술을 이용하면 범죄자는 동시에 다수의 사용자에게 사기를 쳐 피해자에게 더 넓은 범위의 피해와 더 큰 재산 손실을 입힐 수 있다.

하지만 일반 사용자로서 AI 앞에 무력하지는 않습니다. 첫째, 개인 재산에 대한 위험 예방 인식을 높이고 이러한 새로운 유형의 사기에 주의해야 합니다. 둘째, 개인 정보 보호를 강화하고, 셋째, 비공식 및 데이트 앱을 대량으로 등록하지 않아야 합니다. 상대방이 아무리 불안하더라도 여러 가지 방법을 시도해보고, 고액 이체라면 가능하다면 오프라인 인증을 먼저 진행하는 것이 좋다. 마지막으로, 불행하게도 속았다면 가능한 한 빨리 경찰에 신고하고 해당 은행에 연락하여 최대한 손실을 막으십시오.

법률, 규정 및 감독 측면에서 우리는 적시에 후속 조치를 취하고 AI 기술의 개발 및 적용을 위한 기준점과 방화벽을 설정하고 AI를 영원히 홍보해야 합니다. 좋은 소식은 4월 초 중국 사이버 공간 관리국이 '생성 인공 지능 서비스 관리 대책(의견 초안)' 초안을 작성하고 대중의 의견을 공개적으로 요청했다는 것입니다. 우리나라 AI 산업의 건전하고 표준화된 발전을 도모하고 위반과 위반을 방지합니다.

AI 실무자는 국가 규제 정책의 방향을 따르고, AI 윤리에 대한 민감성을 유지하며, 기술 개발과 기업 책임의 통일을 달성해야 합니다.

업계 관찰자 Wenzi는 AI 보안에 대한 연구의 시작을 2008년으로 거슬러 올라간다고 말했습니다. 지금까지 많은 분야를 다루었습니다. 자연어 처리(NLP) 커뮤니티를 대상으로 한 2022년 설문 조사에서 37%는 AI 의사 결정이 "적어도 전면적인 핵전쟁만큼 나쁜" 재난으로 이어질 수 있다는 데 동의하거나 약간 동의했습니다. 그러나 스탠포드 대학교 겸임 교수 Andrew Ng는 이를 "우리가 지구에 발을 디디기도 전에 화성의 인구 과잉을 걱정하는 것"에 비유하는 등 일부 반대 목소리도 있습니다.

Samuel Bowman 박사의 관점은 이 문제에 대한 보다 적절한 이해입니다. 전 세계적으로 AI/ML에 대한 연구를 중단하는 대신 사람들은 충분히 강력한 인공 지능 시스템이 책임감 있는 방식으로 구축되고 배포되도록 해야 합니다.

인터넷 베이징일기의 창시자 장징커는 인공지능이 엄청난 속도로 생산하는 정보로 인해 인류는 필연적으로 인터넷 정보 시대보다 100배나 더 많은 허위 정보 문제에 다시 한 번 직면하게 될 것이라고 말했습니다. 폭발.

대부분의 사람들을 피해로부터 보호하고 싶다면 전통적인 뉴스와 저작물의 저작권 보호 모델을 참고할 수 있습니다. 즉, 정보유포에는 출처를 표시해야 하고, AI 글쓰기라면 작성자를 표시해야 합니다. 이는 또한 정보 유포 중개자를 제거하기 위해 네티즌과 자본이 지불해야 하는 대가이기도 합니다. 장기적으로 감독이 없는 무료 정보는 더 이상 공정하고 효율적이지 않을 것입니다.

제너레이티브 AI 사양 구축은 현재 어떤 진전이 있나요? AI 기술을 적용하면 법적 위험을 어떻게 피할 수 있나요?

How Much Talk의 추샤오쥔 매니저는 우선 커뮤니케이션과 여론 분야에서 "좋은 일은 나가지 않고, 나쁜 일은 수천 킬로미터로 퍼진다"고 말했다. 본질적으로 새로운 것은 아니며 수천 가지 사기 수법 중 하나일 뿐입니다. 그러나 대중적인 AI 기술 및 응용 프로그램과 연결되어 있기 때문에 쉽게 화제가 되어 모든 당사자의 관심을 끌 수 있으며 심지어 십자군을 형성할 수도 있습니다. 새로운 기술과 새로운 분야에 대한 반대의 목소리가 어느 정도 다시 높아질 것입니다. 그러나 지금은 새로운 기술과 새로운 분야에 너무 많은 관심을 기울이고 이를 성급하게 감독할 필요가 없습니다. 결국 새로운 기술과 새로운 분야의 개발에는 시간과 인내가 필요하며 때로는 일정량의 인내가 필요합니다. 급속한 성장'의 시간과 공간.

둘째, 새로운 분야와 신기술의 경우 감독과 입법이 뒤처지는 경우가 많습니다. 이 문제는 기업과 산업의 자율성을 더 많이 요구합니다. 기업은 비즈니스와 기술을 개발하는 동안 사회적 책임을 더 많이 고려하고 더 나은 예측을 해야 합니다. R&D 및 설계 단계에서 예방합니다. 동시에 사용자와 일반 대중이 신기술과 신분야를 이해하고 문제를 조기에 해결할 수 있도록 사용자 교육과 과학 대중화를 강화해야 한다. 동시에 사용자와 청중 스스로도 더 많은 것을 배우고 더 주의를 기울여야 하며 동시에 돈을 벌고, 돈을 빌리며, 돈을 이체하는 다양한 방법을 확인해야 합니다. "파이가 하늘에서 떨어질 것이다"라고 믿으세요.

셋째, 신기술은 사기에 사용될 수 있지만, 또 다른 관점에서 보면 신기술의 출현은 사기 방지 및 사기 방지에도 사용될 수 있습니다. 기술은 중립적이거나 중립적인 경우가 많으며, 핵심은 기술이 어떻게 적용되고 표준화되는지에 있습니다. 현재 잦은 침해 및 사기 사건은 산업의 발전을 제한하는 것이 아니라 산업의 표준화된 발전을 촉진할 것입니다. 결국 야만적인 성장 이후에 부정적인 사건의 빈번한 발생은 한편으로는 여론 감독을 촉발할 것입니다. 그리고 자연스럽게 기업과 산업이 더욱 자율화되도록 촉발합니다. 반면에 감독과 입법은 확실히 가속화될 것이며 궁극적으로 산업은 더욱 표준화된 발전을 향해 나아가게 될 것입니다.

마지막으로, 부정적인 사건이 발생하더라도 한편으로는 감독과 입법 규범이 필요한 반면, 감독과 입법도 관용과 시간을 고려해야 합니다. 업계에 발전을 위한 충분한 공간을 제공합니다. 결국 큰 그림을 보면 AI, 특히 AIGC 및 기타 분야의 향후 발전은 기업 산업뿐만 아니라 기술 분야에서 국가의 목소리에도 영향을 미칠 수 있습니다. 모든 당사자는 새로운 기술을 더 잘 개발할 책임이 있습니다. 그리고 더 안정적으로.

인터넷 기술 블로거 Pipitui는 AI 인공 지능 기술이 점점 더 성숙해지고 있다고 말했습니다. 위험이 있으며 이를 방지하는 방법은 무엇입니까? Tongyi Qianwen의 대답은 다음과 같습니다. AI 인공 지능 기술의 발전은 실제로 사람들에게 많은 편리함과 기회를 가져왔지만 일부 위험과 과제도 가져왔습니다.

AI 위험을 방지하려면 다음 사항부터 시작할 수 있습니다. 첫 번째는 데이터 개인 정보 보호입니다. 개인 데이터를 수집하고 사용할 때 데이터가 남용되거나 유출되지 않도록 엄격한 개인 정보 보호 및 보호 규정을 따라야 합니다. 둘째, 투명성과 설명 가능성: AI 시스템은 사람들이 자신의 결정과 행동을 이해할 수 있도록 투명하고 설명 가능해야 합니다. 셋째, 보안: 악의적인 공격 방지, 데이터 백업 및 복구, 오류 수정 등을 포함하여 AI 시스템의 보안을 보장합니다. 넷째, 법적 준수: AI 시스템이 관련 법률, 규정 및 윤리 규범을 준수하고 법률과의 충돌을 피하도록 보장합니다. 다섯째, 기술 수준: 기술 남용이나 오용을 방지하기 위해 AI 시스템의 기술 수준을 보장합니다. 마지막으로 협력과 협력: AI 시스템의 개발과 적용이 공익과 사회적 책임에 부합하도록 다른 이해관계자와 협력하고 협력합니다.

간단히 말하면, AI 위험을 방지하려면 AI 시스템의 개발, 사용 및 관리가 윤리적, 법적, 안전 기준을 준수하도록 보장해야 합니다. 또한 AI 기술의 건전한 발전을 촉진하기 위해 교육과 대중 참여를 강화해야 합니다.

Zhonghuo International 전략 개발 부서장 Zheng Yang은 현재 AI 사기 유형에는 주로 음성 합성, AI 얼굴 변경, 빅데이터 및 AI 기술을 사용하여 대상 그룹에 대한 정보를 선별 및 필터링하는 것이 포함된다고 말했습니다. . 기술은 양날의 검입니다. 문자 메시지 전화 사기, 계정 도용, p2p와 같은 역사적 경험은 계속해서 진실을 확인했습니다. 즉, 새로운 기술이 반복될 때마다 끝없는 기술 사기가 발생할 것입니다.

역방향 사고를 활용하여 먼저 AI 사기의 핵심은 가짜일 수도 있고 진짜일 수도 있다는 점입니다. AI가 생성한 콘텐츠를 어떻게 더 쉽게 식별하고 그 가능성을 일반 사람들에게 어떻게 알릴 수 있는지가 중점입니다. AI 기술의 위험성(상식의 대중화). 둘째, AI 사기 기술의 근간은 데이터에 있으며, 개인정보의 유출 및 남용을 어떻게 방지할 것인가에 예방 및 감독의 초점이 맞춰져 있다.

또한, 규제적인 측면에서는 한편으로는 빈둥지, 광적인 별추적자 등 취약계층에 대한 정확한 교육과 예방, 통제가 사전에 이루어져야 합니다. 반면, 온라인 데이트, 데이트, 대출, 온라인 게임 및 기타 채널은 엄격하게 감독될 수 있습니다.

모든 기술은 시장화 과정에서 사회적 가치와 경제적 가치가 균형을 이루어야 합니다. 현재 AI 기술의 발전과 관련하여 더욱 두드러진 사회적 문제로는 개인 정보 보호 및 데이터 보호 위험, 지적 재산권 침해 위험, 도덕적 및 윤리적 위험 등이 있습니다. 이러한 문제는 AI 기술의 시장화 속도에 영향을 미칠 수밖에 없지만, 이 자체가 기술 구현을 위해 필요한 과정이다.

AI 기술이 법적 위험을 근본적으로 줄이려면 AI 기술 제작 회사와 플랫폼을 자체 규제하는 도구가 필요합니다. 예를 들어 도구로 생성된 모든 AI 생성 이미지에 라벨을 붙이는 Google의 행동이 있습니다. 좋은 시작이다. 한편, 관련 부서는 법적 범위와 책임 주체를 명확히 하기 위해 가능한 한 빨리 관련 규제 법률, 규정 및 표준 시스템을 마련해야 합니다. 콘텐츠 제작자의 책임을 맡는 AI 서비스.

Dali Finance 창립자 Wei Li는 현재 공개된 AI 사기 사건 정보로 볼 때 AI 사기와 관련된 기술은 주로 AI 얼굴 변경 기술, 음성(소리) 합성 기술 및 텍스트 생성을 포함한 심층 합성 기술이라고 말했습니다. 모델. 범죄자는 AI 얼굴 변화 기술을 이용해 가짜 영상이나 사진을 만들어 다른 사람인 것처럼 가장해 다른 사람을 속일 수 있다.

기술적인 측면에서도 이러한 유형의 AI 심층 합성 콘텐츠를 '기술적 대책'을 통해 파악하기 위해 적극적으로 실천하고 있는 기술 기업과 연구자가 많습니다. 이러한 '기술적 대책' 제품은 일반적으로 분석 등을 통한 딥러닝 기술을 기반으로 합니다. 영상의 특성, 처리 흔적, 얼굴 특징의 '불일치' 등을 검출해 AI가 생성한 영상을 식별한다.

법적 예방 및 통제 측면에서 국가 기관, 플랫폼, 개인은 함께 협력합니다. 플랫폼은 다양한 규제 요구 사항에 따라 감사 및 모니터링 기능을 지속적으로 개선하지만 개인도 항상 경계해야 합니다. 또한 협업 및 공유 데이터베이스를 구축하고, 확인된 비디오 샘플을 수집 및 저장하거나, AI 사기 방지 동맹 및 기타 법 집행 관행을 구축해야 할 수도 있습니다.

인공지능 기술을 어떻게 '선을 위한 기술'로 만들 것인가는 해결해야 할 시급한 문제가 되었습니다. 첫째, 데이터 개인 정보 보호 및 보안이 매우 중요합니다. 개인정보의 남용과 오용을 방지하기 위해서는 인공지능 기술에 대한 감독과 관리를 강화할 필요가 있다. 둘째, 인공지능 기술의 안전성과 신뢰성, 투명성과 공정성이 강화되어야 한다. 마지막으로, 인공지능 기술에 대한 교육과 대중화를 강화하고, 대중의 과학기술 소양과 안전 인식을 향상시키며, 속거나 피해를 입지 않도록 해야 합니다.

About현재 잦은 침해 및 사기 사건이 업계 발전을 제한할까요?

주 텡페이(Zu Tengfei) 언론인은 "기술 자체는 무죄"라고 말했습니다. 핵심은 그것을 누가 사용하느냐에 달려 있습니다. 오늘날 AI와 같은 신기술은 새로운 것이 아니며, 사기와 이익을 추구하는 '나쁜 놈들'도 아니기 때문에 숨이 막힌다고 해서 식사를 중단해서는 안 됩니다. 글로벌 관점에서 볼 때 AI는 거의 모든 국가에서 활발하게 발전하고 있는 방향으로, 다양한 분야에 적용할 수 있고 생산성을 해방하고 생산 효율성을 향상시킬 수 있습니다.

AI 사기의 근본 원인은 개인정보 유출입니다. 앞서 개인정보 유출로 인해 모두가 전화로 괴롭힘을 당하고, 문자 메시지의 폭격을 받는 등 최근의 AI 사기 사태까지 겹쳐 개인정보 보호가 절실한 상황에 이르렀다. 다양한 앱을 다운로드할 때 전화번호, 사진, 지리적 위치 등에 대한 액세스가 필요합니다. 이 정보는 관련 소프트웨어 회사에 의해 효과적으로 보호됩니까? 아니면 다른 목적을 가진 사람들이 재판매하여 이익을 얻고 있습니까?

이 새로운 유형의 AI 사기에 대처하려면 개인 정보 보호, 메시지 확인, 송금 안 함, 지불 안 함 등 다양한 사기 방지 블로거들이 대중화한 지식 포인트를 따라야 합니다. 동시에 관련 기업은 관련 정책을 엄격히 준수하고 AI 기술 윤리를 개선하며 안전 감독 조치를 강화해야 합니다.

AIGC 책임자인 Tang Chen은 AIGC 개발 과정에서 부정적인 사례가 불가피하다고 말했습니다. AI 사기, 디지털 인물, 얼굴 변경 등은 모두 인공 지능 도구의 기능을 나타냅니다. 인공지능의 발달이 가져오는 부정적 영향을 어떻게 피하려면 근본적으로 인공지능을 사용할 수 있는 사람에 대한 규제가 필요하다. 스테파니 선은 이틀 전 'AI 스테파니'로 인한 저작권 논란에 대해 "모든 것이 가능하고 모든 것이 중요하지 않다. 순수한 생각을 갖고 자기 자신이 되는 것만으로도 충분하다고 생각한다"고 답해 호평을 받았다. 좋은 문학적 재능과 대규모 레이아웃에 대한 단순한 칭찬에 더해, 더 심오한 의미는 그녀가 인간의 자신감을 보여준다는 것입니다. 이는 인공지능이 인간을 대체할 수 없다는 인간의 자신감이기도 합니다. 짧은 시간. 그녀의 사고방식도 대중에게 참고가 되어야 한다.

마찬가지로 이 논리는 인공지능이 변화하고 있는 모든 산업에 적용됩니다. OpenAI CEO 샘 알트먼(Sam Altman)이 말했듯이 인공지능 기술은 우리가 알고 있는 사회를 재편할 것이며 아마도 “인류가 지금까지 개발한 최고의 기술”이 될 것이며 인간의 삶을 크게 향상시킬 것입니다. 그러나 그것에 직면하는 데에는 실제적인 위험이 있으며, 사람들은 그것에 약간 겁을 먹어도 행복할 것입니다. 오직 경외심을 가지고 과학과 기술의 발전에 인간이 사용할 수 있는 인공지능 기술을 사용할 수 있습니다. 이 과정에서 사람들이 걱정하는 것은 기술 자체가 아니라 스테파니 선 자신도 AI 스테파니 선에 대해 크게 걱정하는 것이 아니라 기술을 사용하는 인간의 동기이다. 모두가 좀 더 주목해야 할 점, 기술이 어떤 방향으로 진화하길 바라나요? 그리고 비기술은 인간을 무엇으로 변화시킬 것인가? 이것이 문제의 본질일 수도 있습니다.

"티타늄 핫 리뷰"는 티타늄미디어가 런칭한 핫한 이벤트 관찰 칼럼으로, 다양한 산업과 다양한 비즈니스 모델의 발전에 대한 남다른 통찰력과 심층적인 관찰을 갖고 있는 미디어 및 업계 실무자를 중심으로 멀티 채널을 통해 이벤트를 종합적으로 선보입니다. - 각도 해석. 영향과 중요성.

최신 트렌드에 관심이 있고, 자신만의 고유한 의견이 있으며, 같은 생각을 가진 더 많은 사람들과 의견을 공유하고 교환하고 싶다면 "Tiado Hot Review" 커뮤니티 도우미 WeChat에 오신 것을 환영합니다: taiduzhushou, " Tiado Hot Review' 커뮤니티 그룹, 더 많은 사람들이 가치 있는 생각을 볼 수 있도록 사상가들의 커뮤니티를 만들어 보세요!

위 내용은 'AI 사기'가 뜨거운 검색 주제가 됐다. AI가 '출시'된 후 어떻게 '선한 일'을 할 수 있을까? |티타늄 정도에 대한 뜨거운 댓글의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:sohu.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿