首頁 > 科技週邊 > 人工智慧 > ChatGPT過去與未來:數位通訊中人工智慧與資料隱私的演變

ChatGPT過去與未來:數位通訊中人工智慧與資料隱私的演變

WBOY
發布: 2023-04-25 23:49:07
轉載
1411 人瀏覽過

譯者| 劉濤

審校| 重樓

人工智慧在過去幾年中的發展給我們帶來的不僅有機遇,也有挫折。有些重大的突破已經使網路發生了翻天覆地的變化,而且很多都在朝著更好的方向發展。

然而,在人們還未來得及為OpenAI的ChatGPT的發布做好準備的時候,它就已經席捲了整個世界。它創造了一種和人類自然對話的能力,並能在很短的時間內,給出具有真知灼見的答案,這是前所未有的。

隨著更多的公眾開始關注ChatGPT能做些什麼的時候,全球每一位富有遠見的領導者都意識到,從那時起,數位通訊技術將迎來革命性的改變。

但伴隨著創新而來的通常是爭議,在這種情況下,「超新星」聊天機器人必須處理合法資料的隱私問題。

ChatGPT的開發需要大量的數據收集,由於OpenAI 無法準確描述聊天機器人如何運作、如何處理和儲存數據,思想領袖和政府隱私監督機構對數據隱私實踐的擔憂和質疑也越來越多。

大眾也沒有忽視這個問題,根據2023年的一項調查,67%的全球消費者認為他們正在從科技公司手中失去對自己資料的控制權。

同樣的調查也顯示,72.6%的iOS應用程式都會追蹤私人用戶數據,並且免費應用程式追蹤用戶數據的可能性是付費應用程式的4倍。

如果您對此感到擔憂,請記住大部分使用ChatGPT的用戶仍使用免費版本。

有鑑於此,資料隱私公司需要充分利用ChatGPT產生的結果,提供增強資料隱私權的產品,營造一種資料透明度更強、責任感更大的文化氛圍,這樣人們才能意識到自己的資料權利以及如何使用這些權利,同時也使這些開創性的人工智慧技術不至於像許多大科技公司那樣依靠不道德的策略來獲利。

1、ChatGPT可能已經知道你了

ChatGPT是一個大型語言模型(LLM),這意味著它需要大量的資料才能正常運作,使其能夠連貫地進行預測和處理訊息。

這就是說,如果你曾經在網路上寫過文章,那麼很有可能ChatGPT已經對這些資訊進行了掃描和處理。

此外,像ChatGPT這樣的大型語言模型(LLM)嚴重依賴大量來自線上來源(如電子書、文章和社群媒體貼文等)的資料來訓練其演算法。這使得用戶使用它能夠產生看似與手動寫出的文字訊息相同的真實回應。

簡而言之,任何已發佈到網路上的文章,都可以用於訓練ChatGPT或其競爭對手的大型語言模型(LLM),這些LLM肯定會在ChatGPT成功後跟進。

正如OpenAI最近承認的那樣,由於開放原始碼庫中存在漏洞而導致資料洩露,因此人們對資料隱私問題的擔憂並不令人驚訝。此外,一家網路安全公司發現,最近新加入的一個元件容易受到主動利用型漏洞的攻擊。

OpenAI進行了一項調查,發現洩漏的資料包括活躍用戶聊天歷史記錄的標題和新創建的對話的第一條訊息。

該漏洞還洩露了1.2%的ChatGPT Plus用戶的支付信息,包括他們的名字和姓氏、電子郵件地址、支付地址、支付卡到期日期以及支付卡號的最後四位數字。

說這是一場資料保護災難都是輕的。 ChatGPT內部的資訊可能比地球上的任何產品都多,而且在發布幾個月後就已經在洩露敏感資訊。

2、ChatGPT的使用者需要做什麼?

一線希望是:讓大眾關注ChatGPT對隱私構成的實際風險,可以為個人提供一個極好的機會,讓他們開始了解資料保護的重要性,並深入了解更多細節。考慮到ChatGPT用戶群的快速擴張,這一點尤其重要。

除了實施預防措施和保持警惕外,使用者還需要行使其資料主體權利(DSR),裡麵包括保留他們存取、編輯和刪除個人資料的權利。

在數位時代,每位使用者都必須成為加強資料隱私法規的倡導者,這樣才能更好地控制個人資訊,並確保盡最大的責任使用這些資訊。

ChatGPT似乎對此做出了回應,因為新的會話現在會提示人們不要輸入敏感資料或公司機密,因為它們一旦進入系統就不安全。

三星公司發現做到這一點依然很難,更多的人在使用ChatGPT提示時需要注意並謹慎行事。

像是使用新的ChatGPT外掛程式購物這樣的事情可能看起來無害,但你真的想要一個不安全的數位記錄,來記錄你在網路上吃過的所有東西嗎?

#

在這些隱私問題解決之前,我們作為公眾需要放慢腳步,不要過於陷入對新人工智慧技術的狂熱之中。

3、公司需要做什麼?

毋庸置疑:當使用者承諾終止交易時,企業必須為不恰當的資料使用和保護行為負責。

因此,無論大公司或小公司,都應促進透明且易於理解的協議,使個人清楚地了解其數據的用途及去向,以及任何可能訪問到此數據的第三方實體。

此外,企業領導者應為使用者提供行使資料主體權利(DSR)的明確途徑,並教育員工遵守資料處理和儲存的道德準則。

我們還遠遠達不到這個目標,因為大部分預設許可仍處於監管的灰色地帶,鑑於他們沒有明確表明選擇退出或加入的訴求,這取決於用戶和公司所處的位置。

透明、清晰和責任應成為每個組織在資料隱私方面考慮的首要原則。

ChatGPT的興起開啟了一個資料隱私警覺的新時代,在這個時代,組織和個人需要同樣積極主動地確保資料得到適當處理,以避免違規和濫用。

ChatGPT正在以比歷史上任何其他公司都快的速度收集更多的數據,如果安全出了問題,對個人資料隱私的影響將是無與倫比的。

如果公司想確保他們真正意識到了潛在的問題,就必須開始更有策略地保護數據,建立消費者對網路的信任。否則,一個更加美好的共同數位化未來將面臨巨大的危險。

原文連結:https://hackernoon.com/the-evolution-of-ai-and-data-privacy-how-chatgpt-is-shaping-the-future-of -digital-communication

譯者介紹:

劉濤,51CTO社群編輯,某大型央企系統上線偵測管控負責人。

以上是ChatGPT過去與未來:數位通訊中人工智慧與資料隱私的演變的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板