目錄
法律制度尚未準備好chatgpt的建議
為什麼Chatgpt必須保持模型,以及為什麼人類必須重新獲得同意
Chatgpt正在改變風險表面。這是回應的方法。
Chatgpt可能會獲得特權。您應該獲得被遺忘的權利。
首頁 科技週邊 人工智慧 Openai:Chatgpt需要合法權利。您需要忘記的權利。

Openai:Chatgpt需要合法權利。您需要忘記的權利。

Jul 28, 2025 am 11:09 AM

Openai:Chatgpt需要合法權利。您需要忘記的權利。

法律特權保護某些關係的機密性。患者和醫師或客戶和律師之間所說的話,避免了傳票,法院披露和對抗性審查。將相同的保護擴展到AI交互意味著將機器視為工具,而是將其作為特權交易所的參與者。這不僅僅是政策建議。這是法律和哲學上的轉變,沒有人完全認為後果。

它也是在法律制度已經進行測試的時候。在《紐約時報》針對OpenAI的訴訟中,該文件已要求法院迫使該公司保留所有用戶提示,包括該公司說該公司在30天后被刪除。該請求正在上訴。同時,阿爾特曼(Altman)關於AI聊天的建議應該得到合法的屏蔽提出了一個問題:如果它們像治療課程一樣受到保護,那會使系統在另一端聆聽是什麼?

人們已經像對待人口一樣對待AI。根據常識媒體,四分之一的青少年使用了AI聊天機器人,一半以上說他們相信他們至少有所收到的建議。許多人描述了對這些系統的日益依賴,以處理從學校到人際關係的所有內容。奧特曼本人稱這種過度依賴的情感“真的很糟糕和危險”。

但這不僅僅是青少年。 AI已集成到治療應用程序,職業教練工具,人力資源系統甚至精神指導平台中。在某些醫療保健環境中,AI被用來起草通信和解釋實驗室數據,甚至在醫生看到它之前。這些系統存在於決策循環中,並且它們的存在正常化。

這就是它開始的方式。首先,保護對話。然後,保護系統。從有關隱私的對話開始的開始,迅速發展成為以權利,自治和地位為中心的框架。

我們以前已經看到了這個遊戲。在美國法律中,公司逐漸被授予法律人格,不是因為他們被視為人,而是因為它們是一致的法律實體,這些法律實體需要根據法律進行保護和責任。隨著時間的流逝,人格成為有用的法律小說。現在,類似的事情可能正在與AI一起展開 - 不是因為它是有意識的,而是因為它以模仿受保護關係的方式與人互動。法律適應行為,而不僅僅是生物學。

法律制度尚未準備好chatgpt的建議

關於如何調節AI內存,同意或交互日誌,尚無全局共識。歐盟的AI法案介紹了透明度的要求,但記憶權仍然不確定。在美國,州級數據法衝突,沒有聯邦政策解決與啟用內存AI互動的含義。 (請參閱我最近的福布斯文章,介紹為什麼AI法規有效地死了,以及企業需要做什麼。)

服務器的物理位置不僅是技術細節。這是一個法律觸發因素。在加利福尼亞州的服務器上存儲的對話遵守美國法律。如果它是通過法蘭克福路由的,則會受到GDPR的約束。當AI系統保留內存,上下文和推斷同意時,服務器位置有效地定義了互動上的主權。這對訴訟,傳票,發現和隱私有影響。

技術律師John Kheit說:“我幾乎希望他們能繼續授予這些AI系統的合法人格,就好像他們是治療師或神職人員一樣。” “因為如果是的話,那麼所有這些被動數據收集看起來都很像是一種非法竊聽,因此,它會在與AI互動時賦予人類的隱私權/保護措施。然後,它也將要求AI提供者披露“對話其他各方”,即,如果提供者是一個礦業派對,那麼礦業派對是宣傳數據的,如果是廣告商的私人私人對話。”

基礎設施選擇現在是地緣政治。他們確定AI系統在壓力下的行為以及用戶出現問題時的追索權。

然而,在所有這些之下,這是一個更深的動機:貨幣化。

奧特曼(Altman)對AI特權的評論聽起來可能是保護性的,但實際效果是不透明的。圍繞AI交互的法律盾牌使Openai和其他人能夠構建專有的黑盒行為數據庫,這些數據庫是無法檢查,審核或有爭議的數據。用戶將無法檢索他們的數據。他們只能查詢系統並獲取輸出。

但是他們不會是唯一提出問題的人。

每次對話都成為四方交流:用戶,模型,平台的內部優化引擎以及廣告商為訪問付費。對於匹茲堡鋼人隊的提示來說,這是完全合理的。不是因為它很重要,而是因為它是有利可圖的。

最近的研究表明,當用戶嵌入AI生成的內容中時,用戶在檢測未標記的廣告方面會明顯更糟。更糟糕的是,這些廣告最初被評為更值得信賴,直到用戶發現它們實際上是廣告。那時,它們也被評為更具操縱性。

“在體驗式營銷中,信任就是一切。” Soho體驗的創始人Jeff Boedges說。 “您不能偽造關係,也不能沒有後果就可以利用它。如果AI系統會記住我們,向我們推薦事情,甚至影響我們,我們最好確切地知道他們記得的內容和原因。否則,這不是個性化。這是操縱。”現在考慮廣告商訪問心理模型時會發生什麼:“哪些用戶在情感上最容易受到此類信息的影響?”成為可行的,可查詢的提示。

AI系統不需要交出電子表格才能有價值。通過從人類反饋(RLHF)中進行檢索型發電(RAG)和增強措施學習,該模型可以根據先前的情感,ClickStream數據和微調廣告商的目標實時塑造語言。這不是假設的 - 這就是現代ADTECH已經工作的方式。

那時,聊天機器人不是聊天機器人。這是影響力的模擬環境。它經過培訓以建立信任,然後旨在通過它獲利。您的行為模式成為產品。您的情感反應成為優化的目標。

業務模型很清楚:黑盒的行為洞察力,通過有用的設計,隱藏在監督的情況下,幾乎無法檢測到。

這不是授予AI權利的呼籲。這是關於當我們對待像人一樣對待系統的情況,而沒有成為一個人的問責制時會發生什麼。

我們正在進入一個階段,其中將授予機器而沒有人格的保護,並且沒有責任。如果用戶在具有法律特權的AI會話中承認犯罪,是否被迫舉報或保持沉默?誰做出決定?

這些不是邊緣案例。他們快到了。他們正在大規模上映。

為什麼Chatgpt必須保持模型,以及為什麼人類必須重新獲得同意

隨著生成的AI系統發展成為日常生活中的自適應參與者,重新確定邊界比以往任何時候都變得更加重要:模型必須保持模型。他們不能悄悄地假設一個人的法律,道德或主權地位。人類生成訓練這些系統的數據必須保留對其貢獻的明確權利。

我們需要的是一種標準化的,可強制執行的數據合同系統,該系統允許個人在使用窗口中有限,相互同意的使用窗口,自願地,透明地和自願貢獻數據。該合同必須在範圍,持續時間,價值交換和終止上清楚。即使在積極使用期間,它也必須將數據所有權視為不變的。

這意味著:

  • 即使臨時獲得AI培訓的許可,個人也總是擁有自己的數據。
  • 同意必須是明確的,可撤銷和跟踪的。
  • 所有數據訪問都必須用不變的出處記錄,並以高融合性分類帳獲得。

當合同結束或公司違反其條款時,必鬚根據法律,從模型,培訓集和任何衍生產品中刪除個人數據。 “被遺忘的權利”必須意味著它說的話。

但是要可信,該系統必須兩種工作:

  • 數據貢獻者無法接受價值(付款,服務,訪問),然後再撤銷權利。
  • 模型所有者必須在合同期內擁有臨時權利,並受相同的法律基礎設施保護。

這不只是道德。這是關於可強制執行的,相互責任的。

用戶體驗必須是無縫且可擴展的。法律後端必須安全。結果應該是一種新的經濟緊湊型 - 人類知道何時參加AI開發,並保留模型。

Chatgpt正在改變風險表面。這是回應的方法。

作為準參與者(而不僅僅是工具),向AI系統轉變將重塑法律曝光,數據治理,產品責任和客戶信任。無論您是構建AI,將其集成到工作流程中,還是使用它與客戶交互,您應該立即做五件事:

  1. 重新評估您的AI免責聲明和同意流動。
    如果您的產品涉及AI生成的互動,尤其是在金融,醫療保健,人力資源或心理健康方面,您需要圍繞數據使用,記憶和法律界限的清晰語言。假設用戶認為您正在與“真實”交談。
  2. 壓力測試您的數據保留和管轄權暴露。
    您的AI模型在哪里托管?交互數據存儲在哪裡?誰擁有它?這些不是疑問,他們是法律觸發器。您可能會遵守您僅通過通過錯誤的雲區域進行推理而沒有考慮的法律。
  3. 為AI影響建立內部審查協議。
    如果您的AI平台推薦產品,指導決策或創建情感共鳴的產出,則您組織中的某人應審查這些系統的意外偏見,脆弱性開發或嵌入式說服力機制。
  4. 要求您的供應商透明度。
    如果您要從OpenAI,人類,元或任何第三方獲得許可AI服務,請直接詢問:您的數據如何存儲?誰可以查詢它?如果有傳票,洩漏或政府要求,該政策是什麼?如果他們無法回答,那就是您的答案。
  5. 為責任做準備,而不僅僅是創新。
    如果您的AI輸出塑造某人的財務,法律或醫療結果,那麼您就不會因為說“模型做到了”而受到掩蓋。隨著法院趕上這些系統的影響,問責制將取決於部署它們的公司,而不僅僅是訓練它們的公司。

Chatgpt可能會獲得特權。您應該獲得被遺忘的權利。

這一刻不僅僅是AI可以做什麼。這是關於您的業務讓它做的事情,它記得什麼以及誰可以訪問該記憶。忽略這一點,您不僅冒著侵犯隱私的風險,還冒著長期的品牌信任和監管反擊的風險。

至少,我們需要一個法律框架來定義AI記憶的管理方式。不是作為牧師,不是作為醫生,也不是作為伴侶,而是作為證人。可以在上下文要求之外進行信息的內容,並在訪問,刪除和使用方面進行清晰的邊界進行檢查。

公眾對話仍然專注於隱私。但是基本的轉變是關於控制的。而且,除非法律和監管框架迅速發展,否則將不是由政策或用戶來確定參與條款,而是由擁有框的人設定。

這就是為什麼在AI時代,被遺忘的權利可能會成為我們擁有的最有價值的人權。

不僅是因為您的數據可以對您不利,而且因為您的身份本身現在可以以持續無法控制的方式捕獲,建模和貨幣化。當會議結束時,您的模式,偏好,情感觸發器和心理指紋不會消失。他們生活在一個永遠不會忘記,永不入睡並且永不停止優化的系統中。

沒有撤銷數據訪問的能力,您不僅會失去隱私。你失去槓桿作用。您將失去選擇退出預測的能力。您無法控制自己的記憶,代表和復制。

被遺忘的權利不是隱藏的。這是關於主權的。在一個像Chatgpt這樣的AI系統將越來越多地塑造我們的選擇,我們的身份和成果的世界中,走開的能力可能是仍然屬於您的最後一種自由形式。

以上是Openai:Chatgpt需要合法權利。您需要忘記的權利。的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

PHP教程
1540
276
從提示到產品:無代碼AI的業務正在蓬勃發展 從提示到產品:無代碼AI的業務正在蓬勃發展 Jul 26, 2025 am 11:13 AM

使收購脫穎而出的不僅是財務數字,而且是公司進行的非常規的旅程。 Base44從未追求風險投資或遵守傳統的矽谷公式。相反,它證明了那個機智

AI會使'無限工作日”變得更糟 - 除非我們採取不同的行動 AI會使'無限工作日”變得更糟 - 除非我們採取不同的行動 Jul 22, 2025 am 11:12 AM

這個無限的工作日是由全球團隊和混合動力工作的現實加劇的,以及對持續可用性的不合理期望。結果?一個努力跟上的勞動力:三分之一的員工說過去的工作步伐

我們是在目睹機器心理學的誕生嗎? 我們是在目睹機器心理學的誕生嗎? Jul 24, 2025 am 11:12 AM

Artsmart.ai最近的一項調查顯示,“ 32%的參與者將考慮使用AI進行治療,而不是去看人類治療師。”大約在同一時間,NPR強調了新發現,表明:“經過適當的培訓,AI聊天機器人可以

AGI和AI超級智能需要回答智力證明的問題數量 AGI和AI超級智能需要回答智力證明的問題數量 Jul 21, 2025 am 11:09 AM

這不僅僅是一個學術哲學問題。在某個時候,我們應該準備同意是否已經達到了ASI和ASI的出現。這樣做的可能是問AI問題,然後衡量知識分子的問題

一個創始人可以用AI推出一百萬美元的產品品牌嗎? 一個創始人可以用AI推出一百萬美元的產品品牌嗎? Jul 22, 2025 am 11:09 AM

此最新更新旨在最大程度地減少對傳統團隊的依賴。彼得拉(Pietra)的AI管理在線零售的許多方面 - 供應商的溝通,庫存監控,營銷活動,訂單實現和績效分析。

相信Agi和AI超智能將為我們帶來生活的真正含義 相信Agi和AI超智能將為我們帶來生活的真正含義 Jul 26, 2025 am 11:14 AM

好吧,請準備好自己,因為Pinnacle AI有很大的機會確定能夠回答這個史詩般的問題。很抱歉令人失望

新的機器人除草機即將到來 新的機器人除草機即將到來 Jul 26, 2025 am 11:09 AM

總的來說,這是艱苦的,身體上苛刻的工作 - 並不是人類認為容易或愉快的東西。當它到達市場規模時,全球除草行業估計價值約420億美元,屬於更廣泛的農業。

量子計算在主流之前面對3個主要障礙 量子計算在主流之前面對3個主要障礙 Jul 24, 2025 am 11:13 AM

從業務角度來看,量子計算具有跨計算速度至關重要的行業的創新的希望,例如物流,現實世界模擬和人工智能。

See all articles