欧美亚洲丝袜传媒另类_日韩在线免费视频_国内一区在线_亚洲一区二区三区日本久久九

智譜清言被點名通報,AI助手已成隱私泄露“重災區”?觀點

鋅刻度Xinkedu 2025-06-05 07:09
分享到:
導讀

近日,由官方發布的一則通報對這個問題給予了確認的回復:經公安部計算機信息系統安全產品質量監督檢驗中心檢測,在騰訊旗下移動應用商店“應用寶”中的35款App存在“違法違規收集使用個人信息”情況,檢測時間為4月16日至5月15日。

被點名的或許只是冰山一角

撰文/孟會緣

編輯/李覲麟

排版/Annalee

在使用DeepSeek、豆包、騰訊元寶、通義等生成式AI應用的時候,你有沒有想過這樣一個問題:

當我們享受著它們根據我們的喜好推薦的內容、智能生成的回復時,我們的個人信息、使用習慣乃至情感傾向,這些看似無關緊要卻又能勾勒出生活輪廓的碎片化數據,是否正被違規收集與分析?

近日,由官方發布的一則通報對這個問題給予了確認的回復:經公安部計算機信息系統安全產品質量監督檢驗中心檢測,在騰訊旗下移動應用商店“應用寶”中的35款App存在“違法違規收集使用個人信息”情況,檢測時間為4月16日至5月15日。

其中最引人關注的就是兩家AI大模型明星公司,即智譜華章旗下的“智譜清言”和月之暗面公司旗下的Kimi,前者存在“實際收集的個人信息超出用戶授權范圍”問題,后者則是則是“實際收集個人信息的頻率與業務功能沒有直接關聯”。

自從DeepSeek橫空出世以來,生成式AI產品在用戶端得到了一次大規模的普及與應用,而該官方通報一出,立即就在用戶群體中引起了軒然大波。即使這次被直接點名的只是少數,但在社交媒體上關于個人隱私保護的討論熱度卻空前高漲,人們對上述違規行為的擔憂與不滿,迅速蔓延至整個生成式AI領域。

之于生成式AI應用行業的信任危機,才剛剛開始。

“第一股”未上市就折戟?

誰能想到,這次被官方通報點名的智譜清言,上個月還傳出了“正啟動上市輔導,將成為‘大模型六小虎’中首個沖刺IPO的企業”的消息。

相關報道顯示,智譜脫胎于清華大學知識工程實驗室,由清華教授唐杰帶領團隊孵化。企查查數據顯示,智譜已完成18輪融資,投資方包括高瓴資本、啟明創投、君聯資本等知名PEVC,美團、阿里、騰訊等互聯網公司,以及北京、杭州、珠海等國資系基金。

所謂的“六小虎”,則是指在大模型領域表現突出的六家創業公司,包括智譜、月之暗面、百川智能、MiniMax、階躍星辰和零一萬物。2022年末,國外的ChatGPT帶動了國內的大模型創業潮,“六小虎”大都在這一時間節點前后成立。

當時間來到2025年3月,隨著DeepSeek異軍突起,百度、騰訊等互聯網大廠和中小企業紛紛接入和適配DeepSeek,市面上迅速涌現出大量基于DeepSeek技術的生成式AI產品,無疑對“六小虎”的生態位置形成了擠壓,行業也加速進入到“洗牌時刻”。

從3月份的用戶端表現來看,AI產品榜數據顯示,夸克以1.48 億月活占據國內總榜第一名,豆包以9736萬月活用戶位居第二,DeepSeek7701萬月活用戶排名第三。而智譜清言和同樣被點名的Kimi,其市場體量和前三差距明顯,前者以1043萬月活用戶,3月增長31.78%的成績,位居第九名,后者則以2649萬月活用戶,位列第五名。

圖源:AI產品榜

也因此,在大廠卡位、資本退潮的雙重夾擊下,“六小虎”被迫走向分化:有人朝著AGI義無反顧,持續融資、補血、深耕技術,如沖刺AGI(通用人工智能)的智譜清言、階躍星辰;有人選擇掉轉船頭,把有限的資源聚焦至新的業務方向,如百川智能選擇“All in”醫療,零一萬物收縮了預訓練團隊,全面擁抱DeepSeek;也有人依然堅守原地,想以產品力搏出一條生路,如未傳出停止預訓練信號的月之暗面、MiniMax……

“我們融了多少錢,拿了多少收益,其實都是AGI道路上的盤纏。所謂盤纏,就是花掉這筆錢只為了通往目的地”,正如智譜CEO張鵬所說,其曾多次明確過沖刺AGI的目標。

據虎嗅報道,受DeepSeek影響,智譜AI在今年加大了開源力度,也會繼續堅持預訓練。張鵬透露,該公司將自己定位成技術驅動的公司作為基座模型廠商,預訓練是一定會堅持的事情,未來也會有更大參數的模型出來。

在3月31日的中關村論壇上,智譜發布了AutoGLM沉思模型。據悉,這是一個能探究開放式問題,并根據結果執行操作的自主智能體(AI Agent),能夠模擬人類的思維過程,完成從數據檢索、分析到生成報告,展示了在法律、教育、金融等領域的自主操作、研究及報告生成能力……這一動作也再一次印證著,智譜將AGI設定為終極目標的選擇。

圖源:智譜官博

值得注意的是,生成式AI應用因具備智能依賴與數據驅動特性,與傳統手機APP相比,往往面臨更高的隱私泄露風險

用國家數據發展研究院院長胡堅波的話來說,人工智能大模型的發展需要“數據糧食”,特別是高質量數據集,“高質量數據集是人工智能大模型訓練、推理和驗證的關鍵基礎,是按照特定標準,經過采集、清洗、歸類和標注等智能化處理,具有相應更新和維護機制的數據集合?!?/p>

可這一切的重點是,“數據糧食”的收集和使用,應該在合法合規的框架內進行。

技術悖論和監管困局

在被爆出違法違規收集使用個人信息后,智譜清言和Kimi至今都沒有做出過任何官方回應。

但這些問題的存在,不僅暴露了部分智能助手APP在數據收集上的過度貪婪,更折射出整個生成式AI行業在隱私保護方面存在薄弱環節。被通報出來的違規事件,或許只是冰山一角。

從技術發展和產品邏輯來講,用戶的個人信息處理,實際已成為生成式AI產品不可或缺的一環,尤其是在提升模型性能和保障用戶隱私方面,找到兩者之間的平衡點,是相關應用服務企業必須面對的重要課題。

一方面,技術的發展依賴大規模數據預訓練,需要在訓練過程中處理海量數據,甚至數據量與生成結果的準確性呈正相關關系。

有研究表明,在訓練語言模型時,當數據量從百萬級提升到十億級,模型生成文本的準確性和連貫性會有質的飛躍,在一些語義理解和文本生成任務中的得分會顯著提高。

另一方面,任何違反隱私保護原則的行為,都將對品牌聲譽和市場信任造成不可估量的損害,甚至可能導致整個行業陷入萎縮和衰退。

由于這種短視的行為會損害用戶的權益,如果涉事企業不能采取有效措施來加強隱私保護,那么用戶必然將失去對生成式AI的信任,進而影響到整個技術接下來的發展路徑和市場前景。

至于部分企業對個人隱私的漠視和濫用,到底是不是在追求技術創新和商業利益的時候,情不自禁地走了捷徑,現在還無法下定確切的結論,但面對這一挑戰,像智譜清言和Kimi這樣被點名的AI企業,沒能給出令人滿意的解決方案,的確實是不爭的事實。

當然上述困境并非出于企業自身發展和選擇,這樣的單一原因所致。

部分用戶對個人隱私信息的保護意識不足,導致其在使用相關AI應用時,可能存在隨意授權、“一攬子同意”,或者對隱私政策等內容不重視、不了解的情況,在一定程度上也助長了一些AI應用違規收集使用個人信息的行為。

此外,現行的數據保護框架在面對AI技術挑戰時顯得力不從心,存在隱私權界定模糊,信息獲取、處理與傳遞缺乏透明度等情況,加大了隱私保護的難度。如《個人信息保護法》制定時尚未預見生成式AI的爆發,現有法規對“告知-同意”原則的執行存在模糊地帶,使得企業在數據收集和使用上存在一定的僥幸心理。

為了解決這一系列復雜而緊迫的行業痛點,多維度、多層次的整改措施是不可或缺的,只有通過各個層面的共同努力和協作,才能推動生成式AI行業的健康發展,實現技術與社會的和諧共生

而最重要的還是從行業自律的角度出發,AI企業承擔起更多的社會責任,主動加強隱私保護措施。畢竟眾多歷史教訓早已厘清這樣一個事實——只有懂得尊重用戶的企業,才能走向真正的未來。

智譜清言 AI助手
分享到:

1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。