> 기술 주변기기 > 일체 포함 > 빅모델의 시대가 왔다! 데이터 보안 위험에 대처하는 방법은 무엇입니까? Xiaomanyao AI Summit 전문가의 팁

빅모델의 시대가 왔다! 데이터 보안 위험에 대처하는 방법은 무엇입니까? Xiaomanyao AI Summit 전문가의 팁

WBOY
풀어 주다: 2023-05-31 15:25:43
앞으로
803명이 탐색했습니다.

ChatGPT 등 대형 언어 모델이 인기를 끄는 이유는 무엇인가요? 어떤 산업에 좋은 소식을 가져다 줄까요? 잠재적인 거품 위험은 어디에 있습니까? 5월 25일부터 26일까지 20명 이상의 AI 분야 연구자 및 실무자들이 2023 Xiaomanyao 기술 컨퍼런스 하위 포럼인 "지능 시대를 향하여 문명 도약 실현" AIGC 특별 서밋에서 AIGC 애플리케이션과 새로운 비즈니스 패러다임에 대해 논의했습니다. 다양한 산업과 분야의 새로운 발전 경로, 잠재적인 데이터 보안 위험 및 윤리적 문제를 다루고 있습니다.

지난 26일 정상회담에서 열린 신간 출간 기념식에는 '빅 모델 시대'의 저자이자 전 수석 제품 전문가이자 알리바바 사업부 부사장이자 실리콘 공동 창업자 겸 최고운영책임자(COO)인 롱지용(Long Zhiyong)이 참석했다. Nandu Shi와의 인터뷰에서 Valley AI 스타트업은 생성 AI가 먼저 표준화 모델을 따르고 나중에 개발해야 한다고 솔직하게 말했습니다. 대형 모델의 잠재적인 버블 위험에 대처하려면 대형 모델 자체 평가와 같은 기술적 수단이 모두 필요합니다. , 컴플라이언스 알고리즘 검토 등은 물론 수동 프로세스까지 포함해야 합니다. 더 중요한 것은 업계가 문제 해결의 어려움과 주기에 대해 합리적인 기대를 해야만 지나친 낙관으로 인한 위험을 피할 수 있다는 것입니다.

대형 모델이 새로운 지적 혁명과 산업 구조 조정을 시작했습니다

ChatGPT와 같은 생성 인공 지능 뒤에 있는 실제 지능형 "두뇌"는 대규모 언어 모델입니다! 대규모 생성 사전 훈련 모델을 기반으로 한 기술적 혁신은 개인과 산업에 다양한 응용 프로그램을 제공하여 새로운 지적 혁명과 산업 구조 조정을 촉발하고 새로운 두뇌-컴퓨터 협업 관계를 구축했습니다.

대형모델의 시대가 왔다! Long Zhiyong은 "대형 모델의 시대"가 기술, 애플리케이션 및 산업 변화에 대한 심층적인 분석과 정교화를 제공하고 ChatGPT 대형 모델의 원리를 생생하게 설명하며 대형 모델이 어떻게 사회를 지능 혁명 시대로 이끌 것인지 묘사한다고 밝혔습니다. 뇌-컴퓨터 협업, 기업이 대형 모델을 비즈니스에 적용하기 위한 주의사항과 방법론을 요약하고, 개인과 기업이 변화에 대처할 수 있는 제안을 제공합니다. 그에 따르면 대형 모델은 특히 지식 작업, 상업 기업, 창의적 엔터테인먼트 등의 분야에 적용되었으며 주로 점진적 혁신과 파괴적 혁신이라는 두 가지 유형의 혁신을 가져온다.

정상회담 기조연설에서 인공지능 과학자 Liu Zhiyi는 인공지능이 경제 및 사회 발전의 다양한 분야에 힘을 실어주고 다양한 다운스트림 분야의 산업 업그레이드를 위해 대형 모델에 대한 수요가 지속적으로 증가하고 있다고 언급했습니다. 중국 인공지능 산업 시장 규모는 2022년 3억7천만 위안, 2027년에는 15억3천700만 위안에 이를 것으로 추산된다. 다운스트림 제조, 운송, 금융, 산업 등 다양한 분야로 계속해서 침투할 것으로 예상된다. 및 의료 서비스를 제공하고 대규모 구현을 달성합니다.

빅모델의 시대가 왔다! 데이터 보안 위험에 대처하는 방법은 무엇입니까? Xiaomanyao AI Summit 전문가의 팁

'빅모델 시대'는 지난 5월 26일 2023 AIGC 특별 서밋 '지능 시대를 향하여 문명 도약을 이루다'에서 공개됐다.

제너레이티브 AI는 신뢰 침식과 같은 위험을 가져옵니다

그러나 대형 모델이 널리 적용되면서 잠재적인 거품도 나타났습니다. 삼성이 ChatGPT를 도입한 지 20일이 채 지나지 않아 기밀 데이터가 유출된 사실이 밝혀졌습니다. AI 얼굴 변경, AI 페인팅 등 기술로 인해 발생하는 법적 위험, 윤리적 문제, 데이터 보안 문제에 대한 사람들의 우려가 점점 더 커지고 있습니다.

Liu Zhiyi는 "대형 모델 시대의 AI 기술 혁신과 윤리적 거버넌스"에 대해 이야기하면서 생성 인공 지능에는 일정한 위험이 있다고 말했습니다. 규모를 확장할 때 이러한 위험을 고려하고 완화하지 않으면 변혁이 느려질 수 있습니다. 속도. 성능 향상을 위해 훈련된 모델을 지속적으로 업데이트하면 민감한 데이터, 개인 정보 보호 및 보안에 대한 우려가 발생할 수 있습니다. 생성적 AI의 개발, 소비, 논의 및 규제에 관여하는 모든 사람은 신뢰 저하, 직원 실업의 장기적 위험, 편견 및 차별, 데이터 개인 정보 보호 및 지적 재산 보호와 같은 위험을 관리하기 위해 노력해야 합니다.

Liu Zhiyi는 Nandu와의 인터뷰에서 세 가지 견해를 공유했습니다. 먼저 AI 기술은 국가 경제, 사회 시스템 등 다양한 분야에 자연스럽게 진출할 것이며, 기술과 알고리즘의 계산을 통해 기술 자체가 심층신경망과 같은 블랙박스이기 때문에 리스크가 확대될 것이라고 말했다. 이를 달성하는 방법은 모두 불투명하고 설명할 수 없으며 위험이 따릅니다. 둘째, AI 기술은 디지털 세계의 창조와 관련되는 경우가 많다. 예를 들어, 가짜 소리와 이미지를 포함한 심층 위조는 물리적 신원을 디지털 신원으로 바꾸는 것입니다. 디지털 경제가 발전할수록 이러한 기술적 지원이 더 많이 필요하고 의존도가 강해지지만 그에 따른 위험도 더 커집니다. 셋째, 우리나라는 적용 시나리오와 생태를 매우 중요하게 생각합니다. 이러한 적용 시나리오의 구현은 반드시 혁신적이어야 하며 시나리오 혁신에 따라 위험이 확대될 수 있으므로 사전 감독이 필요합니다. 중국 사이버공간관리국이 발행한 '생성인공지능 서비스 관리 대책(의견 초안)'과 과학기술부가 발행한 '과학기술 윤리적 거버넌스 강화에 대한 의견'은 모두 선제적 고려사항이다. 약간의 위험.

빅모델의 시대가 왔다! 데이터 보안 위험에 대처하는 방법은 무엇입니까? Xiaomanyao AI Summit 전문가의 팁

"빅 모델 시대"의 저자이자 전 수석 제품 전문가이자 알리바바 사업부 부사장, 실리콘 밸리 AI 스타트업 회사의 공동 창립자이자 최고 운영 책임자인 Long Zhiyong이 신간 출간 행사에서 연설했습니다. 의식.

대형 모델 알고리즘의 신뢰성과 투명성에 대한 요구 사항 제시

"데이터 프라이버시는 실제로 GPT 대형 모델에게 중요한 문제입니다." Long Zhiyong은 Nandu와의 인터뷰에서 OpenAI가 최근 미국에서 채팅을 끌 수 있는 개인 옵션을 제공하는 등의 문의에 대응하여 사전 준비를 했다고 말했습니다. ChatGPT의 기록을 통해 사용자는 기업 고객을 위해 자신의 개인 데이터를 교육에 사용하는 대규모 모델을 거부할 수 있습니다. OpenAI는 기업이 대규모 모델에서 경쟁사와 공유하는 미세 조정된 교육 데이터에 대해 걱정하지 않도록 기업에 비공개로 배포된 모델을 제공합니다. 이러한 조치는 경쟁사에서 채택할 가능성이 높습니다.

대형 모델의 잠재적 버블 위험을 처리하는 방법과 강력한 규제와 생성 인공 지능 개발 간의 관계 균형을 맞추는 방법에 대해 Long Zhiyong은 생성 AI가 먼저 표준화 모델을 따르고 나중에 개발해야 한다고 솔직하게 말했습니다. AI 생성 제품에 대한 법적 책임을 지는 주요 주체로서 대형 모델 서비스 제공업체는 AIGC 콘텐츠의 정확성과 가치 지향에 대한 책임이 있으며, 이는 여전히 준수 압력이 상당하다고 "Beijing"에 명시되어 있습니다. 홍보 "일반 인공지능의 혁신적인 개발을 위한 여러 조치" 문서에서는 생성형 AI가 과학 연구 등 비공공 서비스 분야에서 긍정적인 응용을 달성하도록 장려하고 핵심 분야에서 시범적으로 활용해야 한다고 언급하고 있습니다. ​​​​중관춘이 포괄적이고 신중한 규제 시범을 실시하는 것은 규범과 발전 사이의 균형을 맞추는 긍정적인 신호라고 생각합니다."

그는 규제 기관의 생각에 신뢰성과 투명성을 향상시키기 위해 대규모 알고리즘이 필요하다고 언급했습니다. '빅모델 시대'에서는 잠재적인 업계 버블 리스크에 대한 경고가 나왔고, 핵심 요인 중 하나는 빅모델의 신뢰성과 투명성이었다. OpenAI의 수석 과학자인 Ilya는 대형 모델 환상과 정보 위조가 다양한 산업 분야에서 GPT 적용을 방해하는 주요 장애물이라고 믿습니다. 환각 문제를 근절하기 어려운 이유는 첫째, 대형 모델의 훈련 목표와 방법 때문이며, 둘째, 딥러닝 시대 이후 AI의 블랙박스 속성은 불투명하고 모델에서 특정 문제를 찾을 수 없기 때문입니다. 대형 모델의 신기능 출현 메커니즘도 투명하고 예측 불가능하다는 점을 고려할 때, 대형 모델 업계는 통제력 상실 속에서도 통제성을 추구하고 규제 내에서 발전을 추구해야 한다는 것이 가장 큰 과제이다.

제작 : 난두빅데이터연구소

연구원: Yuan Jiongxian

위 내용은 빅모델의 시대가 왔다! 데이터 보안 위험에 대처하는 방법은 무엇입니까? Xiaomanyao AI Summit 전문가의 팁의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:sohu.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿