炒股就看,權威,專業,及時,全麵,助您挖掘潛力主題機會!
近期,記者發現有大量以AI問答截圖形式的虛假信息在股民平台傳播。這些截圖中,多個賬號引導AI大模型給出錯誤答案——將某上市公司與DeepSeek產生關聯,進而炮製虛假概念、誤導投資者,並引發公司股價波動。
利用AI大模型散播謠言正成為股市“黑嘴”新套路。一批賬號先是在網絡平台廣泛炮製不實信息,造成虛假內容擴散。當AI再度回答相關提問時,上述不實信息被納入信源範圍,大模型語料庫受到“汙染”,從而給出錯誤答案。
AI大模型迅速迭代、發展迅猛,隨之產生了一些新現象、新問題。如何避免AI淪為股市“黑嘴”操縱市場的工具?如何規避虛假信源被AI大模型納入,造成不實信息泛濫?值得各方深思。
多家上市公司成“AI生成謠言”主角
在網傳截圖中,提問者通過引導性發問,誘導AI大模型作出特定回答,聲稱這些上市公司參股了DeepSeek或為其提供技術支持等,隨後將這些截圖在各平台傳播,引發投資者熱議。據上海證券報記者統計,涉及公司包括、、、、等。


對此,多家公司均已作出澄清,稱公司未持有DeepSeek所屬公司股份或未有合作。
華勝天成2月11日在交易所互動平台回複稱:截至目前,公司未通過直接或間接方式持有DeepSeek所屬公司的股份。
慈星股份也在互動平台明確表示:關注到近期部分社交平台上有傳言稱本公司或公司下屬分、子公司參與DeepSeek融資。經核實,上市公司及其子公司均未參與DeepSeek的投資。敬請廣大投資者注意甄別網絡信息源頭,理性判斷,謹慎投資,注意投資風險。

值得注意的是,當前不少上市公司被歸為DeepSeek概念股,但實際上僅是完成了DeepSeek本地化部署,與其沒有業務合作,聯係較為牽強。記者發現,近期,有多家A股上市公司因股價異動,發布DeepSeek相關澄清公告,向投資者提示風險。
財經評論員曹中銘表示,一家上市公司成為某概念股或題材股,或主營業務與之相關,或與股權存在關聯,或已投入資金,或發布公告披露投資意向。但如果與某一概念或題材沒有任何的關係,當然是不可能成為某概念股或題材股的。
高頻錯誤信息投放或影響大模型準確度
利用AI大模型散播謠言正成為股市“黑嘴”新套路。一批賬號先是在網絡平台廣泛炮製不實信息,造成虛假內容擴散。當AI再度回答相關提問時,上述不實信息被納入信源範圍,大模型語料庫受到“汙染”,從而給出錯誤答案。
一位行業資深人士向記者透露,當前大模型“語料汙染”可以分為幾類:一是數據注入,指的是大模型從網絡等渠道引用的信息本身為虛假信息;二是數據中毒,指大模型被注入大量幹擾、無效文本,影響對有效信息的學習和處理;三是數據欺騙,表現為模仿他人口吻或身份的信息被大模型誤判並采用;四是數據偽造,指一些捏造的不實信息被大模型納入語料範圍。
該人士表示,當前網絡不實信息可以經由自動化工具批量生成,這增加了大模型語料庫的治理難度。同時,因為當前中文語料市場麵臨語料稀缺的問題,大模型普遍從網絡渠道大規模抓取數據,致使錯誤信息不斷累積,造成不實信息進一步泛濫。
“如果互聯網存在一定時間內投放的高頻率、多次數的錯誤信息,對大模型提問此類問題會產生比較嚴重的不真實幻覺問題,這將影響模型參數,通過啟動‘合理補白’機製編造虛假事實。”中國信通院華東分院人工智能部產業生態負責人劉昱仲說。
劉昱仲建議,目前在大模型的使用上,對於投資理財等涉及事實類的問題,尤其在使用非滿血版本時,需要交叉驗證,或通過“請核對內容是否屬實”等提示詞來引導正確答案。
如何避免虛假信源被大模型納入?劉昱仲表示,應從技術層麵規製虛假信息傳播。在訓練與調優大模型時,要強化數據源治理與模型糾偏機製。應建立動態數據清洗和驗證流程,引入權威信源“白名單”,優先抓取政府機構、學術期刊、頭部企業等可信數據,並通過對抗性訓練提升模型對虛假信息的識別能力。針對已被汙染的數據,需要開發實時監測工具,結合知識圖譜交叉驗證,及時修正模型輸出中的錯誤關聯,阻斷錯誤答案的自我強化循環。
應由多方共同治理
利用AI成為“嘴替”散播虛假信息,並不能成為相關責任主體推諉責任的“擋箭牌”。
錦天城律師事務所律師李文兵認為,首先,賬號運營者無疑是主要責任承擔者,根據其過錯程度、行為表現可能承擔民事、行政甚至刑事責任。其次,網絡平台對於發布的內容應當采取實質審查機製,並承擔實質的相應責任。再次,DeepSeek等AI開發者應當防止相關推理結果被濫用並限製話題範圍以及應用範圍。此外,監管部門應當建立信息溯源機製,追蹤虛假信息的來源,並對有責任的賬號運營者、網絡平台以及AI開發者進行處罰。
當前,AI大模型迅速迭代、發展迅猛,隨之產生了一些新現象、新問題,不法分子利用相關漏洞“鑽空子”,其中風險值得警惕。
康德智庫專家、上海蘭迪律師事務所高級合夥人,蘭迪全國刑事委員會副主任丁彥伶對記者表示,治理這一亂象,一是要加強技術監管,開發具備AI內容識別技術的監管工具,識別AI生成的虛假信息,及時發現並阻斷虛假信息傳播。同時,加強數據監管,確保AI訓練數據的真實性和合法性,防止數據汙染。
二是完善相關法律,在技術不斷發展的今天,立法的及時性也是法律人需要思考的問題。刑法在保有其謙抑性的原則下,市場的繁榮其實更多需要行政和民事責任的監管。在科技高度發展的今天,明確AI生成內容的保護原則,明確法律責任主體,提高違法犯罪成本是非常有必要的治理措施。
三是行業自律,要推動金融行業製定AI應用倫理規範,明確禁止利用AI操縱市場的行為,平衡AI技術創新與金融風險的防控。
資本市場上各類信息魚龍混雜、真假難辨,對於普通投資者來說更需要謹慎辨別。“AI隻是工具,幫助我們搜集信息,對AI生成的投資建議應保持謹慎,進行多方驗證,避免誤導。最重要的是要理性投資,根據自身風險承受能力,製定合理的投資策略,不盲目跟風。”丁彥伶說。
作者:王彥琳