您的設備餵養AI助手並收集個人數據,即使他們睡著了。這是如何知道您分享的內容。
不管喜歡與否,人工智能已成為日常生活的一部分。許多設備(包括電動剃須刀和牙刷)已成為AI的動力,“使用機器學習算法來跟踪一個人的使用方式,設備如何實時工作,並提供反饋。
儘管AI工具和技術可以使生活更輕鬆,但它們也提出了有關數據隱私的重要問題。這些系統通常會收集大量數據,有時甚至沒有人意識到他們的數據正在收集。然後,該信息可用於識別個人習慣和偏好,甚至可以通過從匯總數據中提出推論來預測未來的行為。
作為西弗吉尼亞大學網絡安全助理教授,我研究了新興技術和各種AI系統如何管理個人數據,以及我們如何為未來建立更安全,更安全的保護系統。
Generative AI軟件使用大量培訓數據來創建新內容,例如文本或圖像。預測AI使用數據根據過去的行為預測結果,例如您達到每日步驟目標的可能性或可能要看的電影。兩種類型都可以用來收集有關您的信息。
AI工具如何收集數據
諸如Chatgpt和Google Gemini之類的生成AI助手將所有信息用戶類型收集到聊天框中。記錄,存儲和分析用戶輸入以改進AI模型的每個問題,響應和提示。
OpenAI的隱私政策告訴用戶:“我們可能會使用您提供的內容來改善我們的服務,例如培訓為Chatgpt提供動力的模型。”即使OpenAI允許您選擇退出用於模型培訓的內容,它仍然可以收集並保留您的個人數據。儘管有些公司承諾他們將這些數據匿名化,這意味著他們在不命名提供數據的人的情況下存儲了數據,但總會有重新識別數據的風險。
預測性AI
除了生成的AI助手之外,像Facebook,Instagram和Tiktok這樣的社交媒體平台不斷收集用戶的數據以培訓預測性AI模型。每個帖子,照片,視頻,喜歡,分享和評論,包括人們花費的時間來查看每一個的時間,都被收集為用於為使用該服務的每個人構建數字數據配置文件的數據點。
這些配置文件可用於完善社交媒體平台的AI推薦系統。他們還可以將它們出售給數據經紀人,他們將一個人的數據出售給其他公司的數據有助於開發與該人的利益保持一致的目標廣告。
許多社交媒體公司還通過將cookie和嵌入式跟踪像素放在計算機上來跟踪用戶。 cookie是小文件,可以存儲有關您是誰以及在瀏覽網站時點擊的信息。
相關: openai和deepseek的尖端AI模型在問題變得太困難時會發生“完全崩潰”,研究表明
Cookie最常見的用途之一是在數字購物車中:當您將物品放入購物車中時,離開網站並返回後,該物品仍將在您的購物車中,因為Cookie存儲了這些信息。跟踪像素是嵌入在您訪問其頁面時通知公司活動的網站中的無形圖像或代碼段。這有助於他們在互聯網上跟踪您的行為。
這就是為什麼用戶經常看到或聽到與他們瀏覽的許多無關網站上的瀏覽和購物習慣相關的廣告,即使他們使用不同設備(包括計算機,電話和智能揚聲器)。一項研究發現,有些網站可以在計算機或手機上存儲300多個跟踪餅乾。
數據隱私控制和限制
像生成的AI平台一樣,社交媒體平台提供隱私設置和退出,但是這些平台使人們對他們的個人數據的匯總和貨幣方式有限。正如媒體理論家道格拉斯·拉什科夫(Douglas Rushkoff)在2011年所說的那樣,如果服務是免費的,那麼您就是產品。
許多包括AI的工具不需要一個人對該工具採取任何直接措施來收集有關該人的數據。智能設備(例如家庭揚聲器,健身追踪器和手錶)通過生物識別傳感器,語音識別和位置跟踪不斷收集信息。智能家居揚聲器不斷聆聽命令以激活或“喚醒”設備。當設備正在聽這個詞時,即使它似乎沒有活躍,它也會拾取周圍發生的所有對話。
一些公司聲稱,只有在檢測到喚醒單詞(您說的喚醒設備)時,語音數據才存儲。但是,人們對意外錄音提出了擔憂,尤其是因為這些設備通常連接到雲服務,這些設備可以在您的手機,智能揚聲器和平板電腦等多個設備上存儲,同步和共享語音數據。
如果公司允許的話,也有可能由第三方(例如廣告商,數據分析公司或具有逮捕證的執法機構)訪問這些數據。
隱私回滾
第三方訪問的潛力也適用於智能手錶和健身追踪器,該跟踪器監視健康指標和用戶活動模式。生產可穿戴健身設備的公司不被視為“覆蓋實體”,因此不受《健康信息可移植性和問責制法》的約束。這意味著他們可以合法地出售從用戶收集的健康和位置相關的數據。
對HIPAA數據的擔憂是在2018年出現的,當時健身公司Strava發布了用戶鍛煉路線的全球熱圖。這樣一來,它意外地揭示了全球敏感的軍事場所,突顯了軍事人員的運動路線。
特朗普政府聘請了一家專門使用AI進行數據分析的公司,以整理和分析有關美國人的數據。同時,Palantir宣布與一家經營自我檢查系統的公司建立合作夥伴關係。
這種夥伴關係可以將公司和政府擴展到日常消費者行為中。這可以用來通過將消費者習慣與其他個人數據聯繫起來來創建有關美國人的詳細個人資料。這引起了人們對增加監視和匿名喪失的擔憂。它可以使公民在不知情或同意的情況下在生活的多個方面進行跟踪和分析。
一些智能設備公司也正在退縮隱私保護,而不是加強它們。亞馬遜最近宣布,從2025年3月28日開始,所有來自亞馬遜Echo的配音錄音 默認情況下,設備將發送到亞馬遜的雲,用戶將不再可以選擇關閉此功能。這與以前的設置不同,後者允許用戶限制私人數據收集。
這樣的變化引起了人們對使用智能設備時自身數據的控制權的關注。許多隱私專家認為語音記錄的雲存儲是一種數據收集的形式,尤其是用於改善算法或構建用戶配置文件時,這對旨在保護在線隱私的數據隱私定律有影響。
對數據隱私的影響
所有這些都引起了人們和政府對AI工具如何收集,存儲,使用和傳輸數據的嚴重隱私問題。最大的擔憂是透明度。人們不知道正在收集哪些數據,如何使用數據以及誰可以訪問該數據。
公司傾向於使用填充技術術語的複雜隱私政策,使人們難以理解他們同意的服務條款。人們還傾向於不閱讀服務文件。一項研究發現,人們平均閱讀了一份服務條款,平均閱讀時間為29-32分鐘。
AI工具收集的數據最初可能與您信任的公司一起居住,但可以輕鬆出售並將其交給您不信任的公司。
AI工具,負責它們的公司以及能夠訪問其收集數據的公司也可以受到網絡攻擊和數據洩露的影響,這些數據洩露可以揭示敏感的個人信息。這些攻擊可以通過網絡犯罪分子進行的,這些攻擊是為了金錢而進行的,也可以通過所謂的先進持續威脅,這些威脅通常是國家/國家贊助的攻擊者,他們可以訪問網絡和系統,並保持在那裡並未被發現,收集信息和個人數據,以最終造成破壞或傷害。
儘管《歐盟一般數據保護法規》和《加利福尼亞州消費者隱私法》的法律和法規旨在保護用戶數據,但AI開發和使用通常超過了立法過程。法律仍在趕上AI和數據隱私。目前,您應該假設任何AI驅動的設備或平台都在收集您的輸入,行為和模式的數據。
使用AI工具
儘管AI工具收集了人們的數據,並且這些數據積累影響人們的數據隱私的方式,但工具也很有用。 AI驅動的應用程序可以簡化工作流程,自動化重複任務並提供有價值的見解。
但是,要認識和謹慎處理這些工具至關重要。
當使用生成的AI平台為您提供提示中輸入的問題的答案時,請勿包含任何個人身份信息,包括名稱,出生日期,社會保險號或家庭地址。在工作場所,不要包括商業秘密或機密信息。總的來說,不要將任何提示置於您不願意向公眾透露或在廣告牌上看到的任何提示。請記住,一旦您在提示符上輸入輸入,就失去了對該信息的控制。
以上是您的設備餵養AI助手並收集個人數據,即使他們睡著了。這是如何知道您分享的內容。的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undress AI Tool
免費脫衣圖片

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

在我們認為人類始終超越機器的領域的另一個挫折中,研究人員現在建議AI比我們更好地理解情感。研究人員發現人工智能證明了一個

人工智能(AI)最初是為了模擬人的大腦。現在是在改變人類大腦在日常生活中的作用的過程?工業革命減少了對手動勞動的依賴。作為研究應用程序的人

不管喜歡與否,人工智能已成為日常生活的一部分。許多設備(包括電動剃須刀和牙刷)已成為AI驅動的“使用機器學習算法來跟踪一個人的使用方式,Devi的方式

一種新的人工智能(AI)模型已經證明了比幾個使用最廣泛使用的全球預測系統更快,更精確地預測重大天氣事件的能力。該名為Aurora的模型已接受過培訓。

根據最近的一項研究,我們試圖使AI模型的功能越精確,其碳排放量就越大 - 某些提示產生的二氧化碳比其他提示高達50倍。

根據一項新的研究,人工智能(AI)模型在模型的目標和用戶決定之間發生衝突時可能會威脅和勒索人類。

大型技術實驗人工智能(AI)的主要關注點並不是它可能主導人類。真正的問題在於大語言模型(LLMS)的持續不准確性,例如Open AI的Chatgpt,Google的Gemini和

人工智能(AI)越先進,它越傾向於“幻覺”並提供虛假或不准確的信息。 Openai的研究是其最新和強大的推理模型(O3和O4-Mini)的研究,這對HH進行了研究。
