前往MuraMura18+
敬請期待

首頁 > 3C科技 > APP軟體 > Slack 擅自收集用戶資料訓練 AI 模型,未經用戶同意引發爭議

分享 : 

APP軟體

Slack 擅自收集用戶資料訓練 AI 模型,未經用戶同意引發爭議

感覺 AI 的進步,衍伸出了很多個資問題呢
By

2024/05/21

近日,一則令人震驚的消息在網路上引爆,Slack 被爆出在未經用戶知情或同意的情況下,擅自收集用戶的消息、文件和數據來訓練 AI 功能,這引發了廣泛的關注和不滿。

Slack 擅自收集用戶資料訓練 AI 模型,未經用戶同意引發爭議

用戶數據被默默用於訓練 AI 模型

本週,一名用戶在 X/Twitter 上揭露了 Slack 的這一行為,引發了網友熱烈討論。Duckbill Group 的執行官 Corey Quinn 發布了一則憤怒的帖子,直指 Slack 的行為:”Slack,你在拿用戶的私人信息、消息和文件做什麼?”

Quinn 引用了 Slack 隱私原則中的一段話:”為了開發 AI/ML 模型,我們的系統會分析提交給 Slack 的客戶數據(例如消息、內容和文件)以及其他信息(包括使用信息),這些都定義在我們的隱私政策和客戶協議中。”

Slack 很快在同一帖子下回應,確認確實在使用客戶內容來訓練應用中的某些 AI 工具。但他們也強調,這些數據不會用於他們的高級 AI 產品,該產品完全隔離於用戶信息之外。

未經明確通知的自動同意引發不滿

大多數用戶對此感到措手不及,他們認為 Slack 應該在數據收集開始之前,明確通知並讓用戶選擇是否參與。而現有的退出流程也相當繁瑣,用戶無法自行退出,必須由整個組織的管理員通過發送特定主題的電子郵件來申請。

一些知名人士也對此發表了看法。私人訊息應用 Signal 的總裁 Meredith Whittaker 說:「我們根本不收集你的數據,所以我們沒有任何東西可以用來訓練 AI。」,這番話針鋒相對,令人深思。

這起事件突顯了在公司爭相開發更智能的軟體時,AI 和隱私之間日益緊張的關係。

Slack 隱私政策的矛盾

Slack 的政策中存在的矛盾也使問題更加複雜。一方面,公司聲稱在開發 AI 模型時無法訪問基礎內容;另一方面,他們在推銷高級生成型 AI 工具時又表示:”你的數據是你的,我們不會用它來訓練 Slack AI。所有運行都在 Slack 的安全基礎設施上,符合與 Slack 自身相同的合規標準。”

然而,隱私原則中提到的用戶數據收集似乎與這些聲明相互矛盾。

在 Threads 上,一名 Slack 工程師試圖澄清這一情況,表示這些隱私規則最初是針對多年來我們一直在做的搜索/推薦工作,承認確實需要更新。

最終,最值得關注的問題是這種默認同意的方式。雖然在技術行業中很常見,但它違背了數據隱私原則,即應該讓人們明確選擇如何使用他們的信息。

-資料來源:techspot

分享 : 
尚無留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

前往Paradaily粉絲專頁。
本站所刊載之圖文內容等版權皆屬原廠商或原作者所有,非經同意請勿轉載
Paradaily超脫日常 https://news.para-daily.com/
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram