周鴻祎:善用AI的人,永遠跑得比同伴更快
本文來自微信公眾號: 中國企業家雜志 (ID:iceo-com-cn) ,編輯:張曉迪,作者:趙東山
2025年初,360創始人周鴻祎又拍了幾部短劇,劇本里很多的劇情設計,都是他和DeepSeek碰撞出來的結果。
比如,他給DeepSeek設定背景:未來人工智能統治了人類,要派一個像《終結者2》一樣的變形美女機器人,可以異裝成殺手來360公司謀殺自己, 他要求DeepSeek給設計出10種機器人謀殺自己的方法。最終,他也真的采用了。
過去2年里,面對人工智能的狂潮,他既像一位布道者,激情描繪技術重塑千行百業的圖景;又似一名實干家,冷靜拆解大模型落地中的安全與倫理難題。
在日常的工作和生活中,周鴻祎身體力行地擁抱各種AI大模型應用——從短視頻腳本到商業決策, 他強迫自己“沒事就問AI”。在他構想的未來中,每個個體都該建立專屬知識庫,讓大模型成為“亦師亦友的超級助手”。 他直言,“學AI要先學會用大模型。”
對于AI大模型引發的焦慮,周鴻祎展現出實用主義者的清醒。談及AI可能引發的失業潮,他拋出“森林遇熊”理論: “善用AI的人,即使跑得沒有熊快,但也永遠跑得比同伴快。”
2025年開年,DeepSeek如同一條鲇魚,攪動了全球AI大模型圈。因其在技術優化、成本壓縮以及開源模式上的優勢,迅速在全球AI大模型圈引發討論,迄今熱度不減。
在周鴻祎看來,“ DeepSeek對中國產業最大的影響,實際是讓大家各自歸位,找到各自的產業鏈定位, 否則大家一窩蜂地‘百模大戰’,實際在重新發明輪子,都在希望做通用大模型,都在做AGI,誰的卡也不夠,誰的數據也不足。現在都已經有了DeepSeek了,要么你用便宜的API,要么裝一個DeepSeek。所以,很多小應用會起來。”
開源,也是周鴻祎眼中顛覆格局的勝負手。“開源是統戰,把朋友搞得多多的”, 他堅信中國通過開源生態能成為全球AI科技樹的“根技術”提供者。
當閉源巨頭在壟斷與監管間掙扎時,DeepSeek等開源模型正以“科技平權”之勢滲透至百萬企業。這種生態虹吸效應,被他視為中國在AI生態領域超越美國的關鍵:“當幾百萬中國企業用上本地化大模型時,中國將有望率先在全球實現新一輪工業革命。”
當被問及AI倫理風險時,周鴻祎的回應直擊本質: “不發展是最大的不安全”。 他并不諱言大模型的“幻覺”問題,他認為這是AI創造力帶來的雙刃劍: “沒有幻覺的大模型就不聰明了,就像人失去了想象力。”
對于企業級應用可能存在的幻覺問題,周鴻祎提出“以模制模”的解法—— 用安全大模型約束基座模型的“胡言亂語”,通過知識庫校正、搜索矯正與多模型協作構建護城河。
在今年全國兩會上,全國政協委員、360創始人周鴻祎帶來了3份提案,內容涉及“適度包容大模型幻覺”“解決大模型應用安全”以及“以安全即服務破解網絡安全行業困境”三個方面。
以下為周鴻祎媒體訪談實錄(有刪減):
談DeepSeek和AI大模型對大眾的影響
問: DeepSeek春節以來破圈爆火,您認為AI會引發失業潮嗎?
周鴻祎: 我覺得不好說,因為AI肯定會消滅一批崗位,但也會產生一批新的崗位。所以,不管AI怎么發展,掌握AI、學習AI、了解AI,讓自己成為超級個體。就像有個笑話說, 在森林里,你問我遇到熊怎么辦?要不跑得快,如果跑得不如熊快,跑得比同伴快就行。
問: 對于普通人和大學生,您有哪些建議?
周鴻祎: 我認為,學AI先學會用大模型是最重要的。雖然現在你不用大模型也能混,一定要養成學會正確用大模型的習慣。公司很多人開會來問我,老周這事兒怎么辦?我說你問過大模型沒有,我們花了那么多錢,搭建了那么多算力,我們是免費用且不限量,DeepSeek還要買API呢,結果你們自己都不用。
很多人用的時候就把它變成了一個傳統搜索引擎,問事實性答案“天為什么這么藍?”“北京今天多少度?”這個還不如不用,沒啥意義,你用它不能下命令, 不能把它當成一個機器,不能當成電腦,你要把它當成一個亦師亦友的專家顧問, 有什么事兒跟它傾訴。
比如我之前拍一個短劇,劇情大概是:“未來人工智能統治了人類,派一個像《終結者2》一樣的變形美女機器人,可以異裝的殺手來360公司殺我,請設計10種殺我的方法。”DeepSeek就告訴我說:“第一化裝成你的女秘書;第二給你咖啡里下毒;第三假裝給你按摩,勒脖子把你勒死。”這主意都是DeepSeek給設計的,后來就找了黃奕來拍。我那短劇里還有很多對周星馳的橋段進行致敬,全是我給DeepSeek提的要求。
所以, 表達很重要,會問問題很重要。不要迷信它的結果,我覺得它的結果僅供參考,討論過程更重要。
談DeepSeek對行業格局的影響
問: 您覺得自從有DeepSeek之后,其他中國大模型廠商是否還有必要繼續投入做通用模型?
周鴻祎: 會讓大家各自歸位。 AGI和DeepSeek這條路一定還得有人走,也不可能把希望都放在DeepSeek一家,還得有點競爭嘛,有點相互的激勵嘛,但肯定不是“百模大戰”,基本還得有足夠算力的,至少萬卡以上的。整個國家對訓練算力的需求會減少,但對某一家公司來說,訓練算力還是要加大。我認為,字節、阿里肯定會堅定地干下去。
問: 最近,百度等公司都宣布模型將開源,您如何看待大模型領域的開源潮?
周鴻祎: 李彥宏非常睿智,他原來是不太認可開源,因為他認為他的模式是接近OpenAI的,但他比OpenAI更聰明的是及時轉身,宣布開源。他開源之后,阿里更堅持開源,沒準字節也會開源。這個開源的生態形成一個巨大的虹吸效應。 開源一旦形成氣候,一定能戰勝閉源。
開源戰勝閉源,所有互聯網的粉絲都應該承認這一點,沒有開源就沒有互聯網。首先我們要認可開源戰勝閉源靠的是強大的生態虹吸力量。
DeepSeek開源之后實際創造了一個機制,只要開源超過了閉源,所有的公司,開發人員都會選擇在它的上面來做應用,它就變成了人工智能的根技術。大家知道, 技術是有科技樹的,根技術最厲害,因為我的根一旦變化,上面都要跟著變。
美國AI領域為什么害怕這一點,DeepSeek相當于讓所有人薅它的羊毛,這叫無招勝有招。但帶來的回報是在另外一個層面,肯定對DeepSeek來說沒有掙到一分錢,假如DeepSeek只有200人,200人是競爭不過Google的,也未必競爭得過字節,而且時刻準備著被同行們挖人。但是一旦開源之后,全世界不說有200萬人,怎么得有20萬人全球最優秀的這些開發者、工程師、大學教授、博士生們是不是來DeepSeek的生態里來幫你找問題,幫你做改進,在你上面做插件,在你上面做應用。
這會產生一種“生物大爆炸”的效果,很多基于DeepSeek成果會獲得加速的技術發展。而這些成果又會回饋在DeepSeek社區里,這就是我們經常講的開源生態。
開源本是美國人發明的文化,也因此產生了互聯網、MySQL等很多例子,只不過中國以往沒有開源的文化,但我們很多人沒有意識到開源的威力,而 這一次是中國真正地主導開源。
所以,DeepSeek這次開源對整個中國傳統企業在產業里用大模型來降本增效,來打造新質生產力,這個杠桿作用是非常大的。因此,將來中國在AI的生態上超越美國,由生態帶來更強的研發力量,帶來更多的創新和改進,帶來更多的標準,全世界將來AI的應用系統都是架構在我們中國發起的一個根技術上。
這就和今天的互聯網都建立在美國根服務器上的概念實際是一樣的,而且中國的應用又能夠做到比美國普及,個人用戶又比美國多,企業又率先用到最好的模型。這對中國新質生產力的打造很有幫助。
談AI對生產領域的影響
問: “人工智能+”將如何影響民生領域,醫療、教育、智慧城市等?
周鴻祎: 人工智能是一場工業革命,所以它會重塑所有的行業。比如在醫療、健康、養老方面,從個人角度講,有了DeepSeek加持之后,每個人可以有個醫學顧問或者慢病專家,或者養老陪伴的助手。
所以, 我一直覺得人工智能在中國一個重要的發展方向是人人智能, 每個人都可以有各種方面的專業助手,能夠像個亦師亦友的顧問一樣。過去我們軟件APP都達不到這種能力。
從產業角度,可以分三類:
第一類像傳統的醫院, 它是傳統行業,人工智能可以通過加速它的數字化改造,智能化升級,提升效率,比如美國醫院里利用AI來自動給病人打電話預約時間,利用AI來自動處理家庭醫生、社區醫生傳來的病歷傳真,使得病人候診的時間能夠縮短很多倍。
第二類企業是合成生物、生物制造這類新興產業, 人工智能可以成為其研究的工具和范式。
第三類,像研究人類的基因圖譜, 通過基因來抗癌,這屬于AI for Science,就是用大模型這種算法模式套到生物學里,變成生物學研究的工具。
總之,AI的應用范圍非常多,日常對話和成為你的助理,只用到它5%的功能。最重要的是和產業結合之后,無論是對老板的決策支持、對員工的工作能力加強,還是對內管理、業務流程這種改善效率,以及對外的產品服務和對客戶角度,都能夠找到很多過去卡點和堵點,用大模型針對某個場景,結合專業知識庫和智能體實現降本增效。
談AI搜索的機會
問: 搜索是現在很多AI玩家想要搶占的賽道,在競爭激烈的環境下,您會不會有一些危機感?如何在競爭激烈的賽道中脫穎而出?
周鴻祎: 我一直都有危機感,因為搜索本來就是一個巨頭林立的賽道。最早我們是想用AI來改造搜索,以此提升搜索的體驗。經過這輪競爭之后,我們發現, 搜索的地位前所未有的重要,因為搜索現在成了所有大模型必配的功能。 現在Google、OpenAI、DeepSeek,特別是DeepSeek推出默認帶搜索功能之后,全球都這么跟進。
因為大家發現,一個大模型如果不具備搜索能力就意味著你不會用搜索這個工具,你對互聯網啥事兒都不知道,在訓練的時候不能保證所有的資訊都用過了,很多資訊找不到,你的結論往往是不完整的。所以,搜索就變得很關鍵。
和其他搜索廠商一樣,我們也引入了DeepSeek等50種模型,通過這些模型的協作,有的模型擅長改寫,有的模型擅長總結,有的模型擅長推理和分解任務。我們春節期間沒有DeepSeek漲得快,DeepSeek7天漲了1個億的用戶,我們15天漲了2000萬手機用戶。現在PC上我們的流量很大,我們有了很好的基礎后,剩下的問題就是要仔細打磨用戶的體驗和把各種深度的工具做好。
傳統搜索的理念被顛覆了,大家要把搜索變成Deep Research深度的搜索, 你提個問題之后,我不是搜一遍,而且把它搜多遍,拿回來資料再經過分析后再搜索,可能經過多次循環,保證把這個問題在互聯網給你扒得干干凈凈,提煉得非常系統。這里面還有很大的空間可以做。
搜索,誰說一定要只搜全網呢?搜索能定向搜索,你問的是醫學的問題,我就把美國這種定向醫學的一些知識庫專門進行搜索,你搜的是企業問題,我就定向從企查查去搜。
問: 360的優勢在哪里?
周鴻祎: 我認為,我們做的最對了幾件事兒:
第一,很早我就在強調,大模型是能力,不完全是產品。雖然今天DeepSeek也能用,但等到你用到一定的時候也會覺得不滿足,所以,它也要產品化。因此,一定要找好場景,我們很早就開始找了搜索的場景。
第二,我不是等DeepSeek熱門了才跟它合作,我去年8月份就和它合作了,當時開了一個“復仇者聯盟”的會,把中國16家大模型都請來。所以,到今天我還能提供多模型的協作能力。
DeepSeek出來之后,很多家大模型廠商才意識到,你要沒有足夠的資金和人才密度,再做AGI,做大模型是沒有意義的,應該轉型做應用。去年當我和16家大模型合作時,我們就已經轉型在做應用了。所以,做應用會更有它的價值。
DeepSeek對中國產業最大的影響,實際是讓大家各自歸位,找到各自的產業鏈定位, 否則大家一窩蜂地“百模大戰”,實際在重新發明輪子,都在希望做通用大模型,都在做AGI,誰的卡也不夠,誰的數據也不足。現在都已經有了DeepSeek了,要么你用便宜的API,要么裝一個DeepSeek。所以,很多小應用會起來。
談人形機器人
問: 您如何看待最近人形機器人的火熱和未來,如果360感興趣這個賽道,可能會聚焦在哪個特定領域呢?
周鴻祎: 機器人是屬于未來產業,我還看過北京市的世界機器人博覽會,我還拍了個短視頻。我的觀點很簡單, 第一前景很廣闊,人形機器人一定是未來;第二沒有大模型,人形機器人寸步難行。
如果大模型技術不成熟,機器人面臨什么問題呢?首先視覺都是看見的能力,不能看懂,可以感知不能認知,和人沒法對話,沒法交流,沒有語言能力就沒法和人交互,大腦沒有很強的推理能力,那只能接受簡單指令了。
只要大模型在發展,對它就是非常有利的幫助。剩下的問題,我認為是成本問題,就是機械手可能是最重要的關鍵,因為它要仿真人手,但中國的產業化能力,就像無人機和智能車一樣,能把價格降到別的國家認為是不可能的程度。所以,我估計還有個幾年,如果這個價格降到幾萬元一個機器人,進工廠、進家里就會比較實用了,我比較看好養老機器人。
問: 隨著AI的發展,機器人的智商會加速進化嗎?
周鴻祎: 我認為至少兩點:第一,用現在的推理大模型和知識大模型,就是我們已有的大模型技術,肯定會隨著我們大模型能力的提升而提升的;第二,當大模型加到機器人身體之后,機器人能夠物理感知這個世界,它就創造了一種新的人工智能去感知世界的方式,因為在這之前,大語言模型只能看文字、聽聲音、看圖片、看視頻,但不能親自感知這個世界,如果加上之后,這個感知對于智力能不能提升,我就不太懂了,但我感覺應該是能提升的。
談AI帶來的安全風險
問: 您如何看待AI技術進步帶來的新的安全風險?
周鴻祎: 第一,要正確地認識AI的安全問題,不能夸大也不能忽視。 現在有一種趨勢,主要是OpenAI等美國的前5家AI公司都是想搞壟斷,所以他們往往會夸大AI不安全的問題作為他們不開源的借口。他們往往希望政府加強管制,加強管制之后,后來者就沒有機會趕上他們。在這種背景下談AI安全屬于“耍流氓”。
我一直認為,不發展是最大的不安全,你必須要抓住AI這次工業革命的機會,提升生產力,包括讓科技普惠在每個人身上。
第二,AI的安全和業務的發展,我認為同步可以走,應該能找到解決方法。但不要籠統地談AI安全,因為什么事兒一籠統地談就很難有解了。比如AI的“幻覺”問題不完全是AI安全問題。因為“幻覺”是大模型固有的特點,沒有幻覺的大模型就不聰明了,幻覺是大模型像人一樣有智力的體現。
DeepSeek的幻覺是很嚴重的,所以你們用它寫文章才覺得確實像人。為什么原來的幻覺不嚴重,它沒有想象力,幻覺是想象力和創造力的基礎。所以,不能嚴格、籠統地把它定義為幻覺。幻覺是AI安全的一個問題。
幻覺有了之后,確實又有嚴重問題,比如把大模型在企業內部,比如這個企業是醫療、法律、金融、證券或者用在生產、制造業這種不能出錯的地方,大模型給你亂編一氣,給你亂警報,那么幻覺就是非常嚴重的問題。
所以,我們把大模型問題做了一個分工,今年我提的建議里也有,DeepSeek一定會火,而且DeepSeek是真火,不是虛火,因為它確實解決了人工智能大模型從“不可用”,從“湊合用”到“完全可用”“能用”的階段。所以,DeepSeek不光是你們各位在用,我也在用,中國很多企業,政府都要主動地用。這時候DeepSeek安全問題就出來了。
但是網上現在對DeepSeek的安全問題,還是把它當成一個傳統IT設備看安全。這個思路是過時的,這種傳統網絡安全的解題方法是解決不了人工智能的安全問題。人工智能的安全問題,對DeepSeek來講至少分成四個層面:
1.基座模型的安全問題。 如何在AI領域防止幻覺。幻覺是可以防止的,為什么DeepSeek一定要聯網才好用?因為用了互聯網的知識庫來做個校正。為什么在企業里應用一定要連上企業專有的知識庫,也是要做個校正。
其實DeepSeek比較容易出的問題是什么?它作為一個模型,任何人皆可PUA,任何人皆可攻擊。被PUA之后它就絕對聽你的,你打聽老板的啥事兒它都告訴你,你公司什么內部知識庫的資料問它,你沒有權限都可以得到。這是比較嚴重的問題,是基座模型的問題。
2.客戶端的安全問題。 大家用基座模型總要通過一定的軟件去用,所以以后大家很多工作都要和公司里的大模型聊天、交流,這里有用戶端安全的問題,怎么防止用戶在用戶端對它發起攻擊。
我們做了一個測試,決定DeepSeek結果的其實現在不是提示詞,而是要學會建立個人知識庫。為什么大家在網上會爭論,搜索結果不一樣?很簡單,搜索的能力不一樣,你給它搜了30篇很好的文章,大模型讀了就給你總結起來頭頭是道,你弄了20篇垃圾文章,可能又是另外一個低水平AI寫的文章。差異就在于你給什么數據。
3.知識庫的安全問題。 知識庫有個問題,一旦你把企業很重要的資料放到知識庫里并給大模型了,大模型就開始知無不言,言無不盡了,誰問大模型都會如實地把知識庫里能看到的都會告訴他。這就會有數據安全的問題。
4.智能體的安全問題。 大模型火了后,“Agent”這個概念開始起來了,大模型只是一個大腦,只能做推理和對話,這個能力是有限的,它必須要能操作電腦,操作企業的各種物理設施,以及服務器才能工作,一旦把這個權力交給它,智能體就很危險。比如你讓它能發郵件了,哪天我的數字人給全體員工發個郵件說老周辭職不干了,我還得到處解釋,這是我的數字人干的,或者通知我的財務快給某個賬號轉筆錢,這不就很糟糕嘛。
所以,智能體的安全、知識數據的安全、客戶端的安全,還有基座模型的安全,構成一個新的人工智能安全的新領域。這個解決方法我們也有了,關鍵問題是“以模制模”。