“放棄元宇宙,轉而布局AI”成為近日各大企業爭相追趕的趨勢。
微軟據稱解散了四個月前組建的工業元宇宙團隊;兩年前進入元宇宙後,360(簡稱“360”)近日宣布,計劃推出類似ChatGPT的演示版產品......“AI熱潮”會不會成為下壹個迅速破滅的泡沫?
有媒體分析,AIGC的出現對於風險投資行業來說猶如“久
“放棄元宇宙,轉而布局AI”成為近日各大企業爭相追趕的趨勢。
微軟據稱解散了四個月前組建的工業元宇宙團隊;兩年前進入元宇宙後,360(簡稱“360”)近日宣布,計劃推出類似ChatGPT的演示版產品......“AI熱潮”會不會成為下壹個迅速破滅的泡沫?
有媒體分析,AIGC的出現對於風險投資行業來說猶如“久旱逢甘霖”。目前風險投資公司手握3000億美元火藥準備入場。與此同時,正在經歷大規模裁員潮的矽谷,也急需下壹個讓它“煥然壹新”的大事件。
但是,任何事物的出現都避免不了反對的聲音。隨著人工智能ChatGPT的熱浪席卷各行各業,對人工智能關註和警惕的聲音也隨之而來,“反ChatGPT”開始成為壹股新生力量。
媒體指出,以ChatGPT和Metauniverse為代表的AI大爆發與NFT的本質區別在於,對於很多人來說,Metauniverse還是壹個模糊的概念,但AI的底層技術已經在各行各業應用了20年,正在經歷技術叠代和加速發展的階段,從軟件工程到財務,到運營,到法律,到物流,再到藝術,因此 雖然AI爆炸還有泡沫,但不可否認的是,它不會像元宇宙和NFT那樣有“炒作概念”的嫌疑。
華泰電子團隊分析指出,是否擁有大模型將成為科技巨頭/技術平臺企業的重要分水嶺。未來科技巨頭之間將會出現大的模式軍備競賽,科技公司的長期投資價值將被重新定義。
帶來了新的革命?
2022年6月5438+065438+10月ChatGPT發布後,微軟宣布與OpenAI合作,推出內置ChatGPT的bing搜索、Edge瀏覽器、Office套件和Azure,讓谷歌的壓力倍增,AI的快速發展也讓市場始料未及。微軟董事會成員雷德·霍夫曼去年說“魔法真的出現了”,霍夫曼解釋道:
Copilot正在幫助軟件工程師編寫高達40%的代碼。人工智能將改變所有行業,每個人都必須考慮如何使用它。AI會出現在我們做的每壹件事情中,這是我們做每壹件事情的基礎。
壹位雲計算高管在最近的TEC市政廳討論中表示,AIGC的發展不僅會影響搜索引擎,而且“雲革命”可能正在逐漸爆發:
“這是壹場非常重要的革命,我認為它和工業革命壹樣重要。不馬上接受的公司可能會被淘汰。”
媒體分析指出,ChatGPT的出現重新定義了機器學習,正在開發和推出的深度語言學習模型將達到另壹個高度:
以在金融中的應用為例,如果我們用AI分析5000張資產負債表,它可以在幾秒鐘內完成閱讀,提取所有有用的財務信息,計算風險得分,並對投資組合風險做出決策。
“AI+”(用AI技術賦能行業的科技企業)和“+AI”(采用AI技術的傳統企業)能否勝出,是上壹輪AI投資的最大爭議。分析指出,當大模型主導的創新周期到來時,以GPT-3大模型為例,需要6543.8+075億的數據和數百萬、數千萬美元的計算能力投入,壁壘顯著提升。
華爾街知情研究認為,由於AIGC推動的高計算能力需求的指數級增長,雲計算廠商在人工智能培訓和雲服務上的資本支出可能會再次回升。
以微軟為動力,對於搜索引擎的AI功能升級,資本支出呈現增長趨勢。在市場需求下降的趨勢下,其他制造商可能會改變他們原來的資本支出計劃。
能創造新的就業機會?
反對人工智能發展的經典論點是將其描述為“工作殺手”,但通過媒體采訪,公司高管指出:
人工智能將接管人類壹開始就不應該做的重復性工作,讓人類去做更重要的工作。
媒體稱,目前高管對人工智能的態度是,人工智能不會取代律師,但“用人工智能的律師會取代律師”。分析指出:
“現在有壹種觀點,特別是在專業行業,如果律師和會計師等專業人士不使用人工智能,他們將被使用這些工具的人取代,因為那些願意合理使用AI的人將變得更有效率,可以做更多的事情。”
在技術行業,壹位CTO表示,他們在四年前開始使用AIGC運行服務請求的實驗結果,這導致公司約89%的計劃外服務請求被完全獨立地處理。前隊的損失為零:
“我們沒有裁員。沒有人失業,我也認為通過ChatGPT提高效率的人取代了那些效率低下的人。”
然而,另壹位高管表示,壹些人可以獲得解放並從事更高層次工作的願景是盲目樂觀的,在商界可能會產生相反的效果:
“當人們開始迎接挑戰時,人們會變得愚蠢,因為我們只是問計算機壹切。”
關於人工智能的爭論越來越激烈。壹些高管認為,人工智能驅動的制造和自動化對於優化和產出至關重要,如果他們不使用它,他們將面臨淘汰:
“我們認為現在的公司不尋求人工智能提供解決方案是非常不負責任的,因為他們現在非常強大。”
AI背後隱藏的媒體分析指出,人工智能還存在諸多風險,包括:人工智能傳播的大量虛假信息;偏見;對人類工作的威脅;版權問題;剽竊.....
華泰電子團隊指出,ChatGPT是向AGI(通用人工智能)的飛躍,但離AGI還很遠。目前關於使用ChatGPT等大模型的爭議層出不窮,主要集中在以下幾個方面:
1)信息真實性:大語言模型缺乏對事實和邏輯世界的真實理解,生成內容的真實性和可解釋性存疑;
2)信息的危害性:比如ChatGPT雖然采用了基於人類反饋的強化學習(RLHF)來減少有害和不真實的輸出,但是如果用戶壹步步引導,ChatGPT仍然會對有害指令做出反應;
3)使用不當:學術等場景不宜使用ChatGPT。許多頂級期刊已經禁止生成式人工智能工具的簽名。
ChatGPT很好玩,但不是作者。這是《科學》主編霍爾登·索普發表的壹篇關於人工智能的社論。指出“原創性”是科學發表論文的基礎,使用ChatGPT寫文字的行為等同於抄襲ChatGPT:
“我們正在更新我們的編輯政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、數據、圖像或圖形。違反這壹政策將被科學期刊視為學術不端,與篡改圖像或抄襲無異。”