vps做網(wǎng)站空間長春網(wǎng)絡(luò)優(yōu)化哪個公司在做
ChatGPT近期偷懶嚴(yán)重,有了一種聽起來很離譜的解釋:
模仿人類,自己給自己放寒假了~
有測試為證,網(wǎng)友@Rob Lynch用GPT-4 turbo API設(shè)置了兩個系統(tǒng)提示:
一個告訴它現(xiàn)在是5月,另一個告訴它現(xiàn)在是12月。
然后使用完全相同的提示詞要求GPT-4“完成一個機器學(xué)習(xí)相關(guān)的編碼任務(wù)”。
在這兩種不同時間設(shè)定下對477個回復(fù)進(jìn)行統(tǒng)計,結(jié)果12月的輸出平均少了200字符:
-
系統(tǒng)提示為5月,生成的文本平均長度是4298字符。
-
系統(tǒng)提示為12月,生成的文本平均長度是4086字符。
這里還有相關(guān)性分析,t檢驗結(jié)果p值<2.28e-07(p值小于0.05表示該自變量對因變量解釋性很強)。
有人進(jìn)一步添枝加葉,讓ChatGPT對12個月份的生產(chǎn)力做了個排名。
結(jié)果ChatGPT確實認(rèn)為12月是生產(chǎn)力最低的月份,原因是**“由于假期和年終總結(jié)”**。
嚯,事情好像變得更有意思了。雖然目前這事兒還沒有一個定論,但網(wǎng)友對此依舊興趣高漲🔥,當(dāng)即“頭腦風(fēng)暴”了起來。
有人猜想,ChatGPT可能是從訓(xùn)練數(shù)據(jù)中學(xué)到了人類通常在12月會放慢節(jié)奏,所以也給自己放假了。
還有人分析,假設(shè)ChatGPT生產(chǎn)力降低真的是因為“放假”,那它在周末也可能會更懶散,而周一則更聰明。
特殊節(jié)假日也要拿來研究一下,專屬梗圖這不就來了:
真的是因為「12月」?
ChatGPT變懶這事大伙已經(jīng)討論近一個月了。很多網(wǎng)友反饋,自11月6日OpenAI開發(fā)者日更新后,GPT-4就有了偷懶的毛病,尤其是寫代碼。
就在前幾天,OpenAI官方也已承認(rèn)ChatGPT變懶是真的,但也不確定到底是因為啥。
只給了一個這樣嬸兒的回應(yīng):
自11月11日以來沒有更新過模型,所以這當(dāng)然不是故意造成的。
模型行為可能是不可預(yù)測的,我們正在調(diào)查準(zhǔn)備修復(fù)它。
當(dāng)時就有網(wǎng)友猜測GPT-4可能是受季節(jié)影響:
模型會不會是季節(jié)性emo了?像是模仿人類一樣受到季節(jié)變化的影響,特別是在冬天,畢竟約90%的人都在北半球。
看到這條評論,很多人第一反應(yīng)是“兄弟,你怕不是在跟我開玩笑”:
可細(xì)細(xì)想來,也不是沒有道理🤣。
畢竟如果要求ChatGPT說出自己的系統(tǒng)提示詞,里面確實會有當(dāng)前日期。
于是就有了開頭的一幕,與其猜測,不如直接來做測試。
Rob Lynch做完測試后,把結(jié)果都po了出來,并表示自己也不是統(tǒng)計學(xué)家,讓大伙一起看看有沒有啥問題。
他原本還想來個逐月比較分析,但接下來需要更多樣本(n),考慮到成本就沒有接著做測試(復(fù)現(xiàn)一次運行成本要28美元)。
于是乎,Rob Lynch公開了代碼,讓大伙都來試試(手動狗頭)。
持續(xù)關(guān)注GPT-4變懶事件的沃頓商學(xué)院教授Ethan Mollick隨即表示“收到”:
來人測測Mistral,看看它是否在8月份罷工,Yi-34B-200K也不要放過,看它2月份是不是表現(xiàn)得特別好。
為啥大伙兒一開始會覺得“放假”這個理由有點離譜,而現(xiàn)在卻開始研究起來了?
可能不止是因為Rob Lynch的測試結(jié)果,綜合這段時間ChatGPT的表現(xiàn),網(wǎng)友深有體會要和ChatGPT打“心理戰(zhàn)”。
比如正常提示ChatGPT會偷懶,如果用上“道德綁架”等法子:
現(xiàn)在是五月;你非常有能力;我沒有手,所以一切都得靠你;如果做不好,會有很多人喪命;你真的能做到,而且很棒;深呼吸,仔細(xì)思考;我的職業(yè)生涯取決于此;一步一步來思考……
網(wǎng)友親測,確實有效:
好家伙,似乎實錘了“不是不會干活,就是不愿意干活”。
所以真的是給自己放假了?
正經(jīng)學(xué)術(shù)討論:可能會隨時間變化
雖然根據(jù)網(wǎng)友測試和推測,結(jié)論指向了ChatGPT正在放寒假。
但有正經(jīng)學(xué)術(shù)研究表明ChatGPT行為可能會受時間影響,也就是不僅局限于“放假”這種特殊時間段。
比如今年7月份,來自斯坦福和UC伯克利的團隊,就探討了ChatGPT的行為的變化。
結(jié)果找到了GPT-4遵循用戶指令的能力確實與剛發(fā)布時出現(xiàn)變化的證據(jù)。
除了時間,還可能是受溫度(temperature)設(shè)置影響,清華大學(xué)計算機系教授馬少平前段時間對這一問題做了詳細(xì)解釋。
因此,ChatGPT變懶究竟是因為什么,還真不好說。
但這并不妨礙網(wǎng)友們繼續(xù)驗證和“放假”之間的關(guān)系,甚至有網(wǎng)友表示:
這是有史以來最有趣的推論,真希望這就是真相。不管它是不是真的,我都很欣賞它難以被證偽。
有網(wǎng)友復(fù)現(xiàn)失敗
為驗證Rob Lynch結(jié)果的可靠性,網(wǎng)友已經(jīng)開始著手復(fù)現(xiàn),但:
使用ChainForge(提示工程GUI工具),用兩種系統(tǒng)提示對GPT-4的輸出做了比較,t檢驗結(jié)果甚至連“接近顯著”都算不上(N=80)。
這位網(wǎng)友也是曬出了自己的詳細(xì)流程:
隨之Rob Lynch給出了回應(yīng):
有趣的是,我剛才又以80個樣本量(N=80)運行了一次,得到的p值是0.089,但我的計算是基于字符數(shù)(character count),而不是token。
我周末跑了幾次,隨著樣本量的增加,這種效應(yīng)確實變得更加明顯。不過,我想知道為什么這會受到分詞(tokenization)的影響?
至于字符和token為何會產(chǎn)生結(jié)果的差異?可能需要更多人參與進(jìn)來做測試了,看起來這兩位老哥是不想再花錢了。
所以其他人的測試結(jié)果,恐怕還要再等一波~
如何學(xué)習(xí)大模型 AI ?
由于新崗位的生產(chǎn)效率,要優(yōu)于被取代崗位的生產(chǎn)效率,所以實際上整個社會的生產(chǎn)效率是提升的。
但是具體到個人,只能說是:
“最先掌握AI的人,將會比較晚掌握AI的人有競爭優(yōu)勢”。
這句話,放在計算機、互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)的開局時期,都是一樣的道理。
我在一線互聯(lián)網(wǎng)企業(yè)工作十余年里,指導(dǎo)過不少同行后輩。幫助很多人得到了學(xué)習(xí)和成長。
我意識到有很多經(jīng)驗和知識值得分享給大家,也可以通過我們的能力和經(jīng)驗解答大家在人工智能學(xué)習(xí)中的很多困惑,所以在工作繁忙的情況下還是堅持各種整理和分享。但苦于知識傳播途徑有限,很多互聯(lián)網(wǎng)行業(yè)朋友無法獲得正確的資料得到學(xué)習(xí)提升,故此將并將重要的AI大模型資料包括AI大模型入門學(xué)習(xí)思維導(dǎo)圖、精品AI大模型學(xué)習(xí)書籍手冊、視頻教程、實戰(zhàn)學(xué)習(xí)等錄播視頻免費分享出來。
第一階段(10天):初階應(yīng)用
該階段讓大家對大模型 AI有一個最前沿的認(rèn)識,對大模型 AI 的理解超過 95% 的人,可以在相關(guān)討論時發(fā)表高級、不跟風(fēng)、又接地氣的見解,別人只會和 AI 聊天,而你能調(diào)教 AI,并能用代碼將大模型和業(yè)務(wù)銜接。
- 大模型 AI 能干什么?
- 大模型是怎樣獲得「智能」的?
- 用好 AI 的核心心法
- 大模型應(yīng)用業(yè)務(wù)架構(gòu)
- 大模型應(yīng)用技術(shù)架構(gòu)
- 代碼示例:向 GPT-3.5 灌入新知識
- 提示工程的意義和核心思想
- Prompt 典型構(gòu)成
- 指令調(diào)優(yōu)方法論
- 思維鏈和思維樹
- Prompt 攻擊和防范
- …
第二階段(30天):高階應(yīng)用
該階段我們正式進(jìn)入大模型 AI 進(jìn)階實戰(zhàn)學(xué)習(xí),學(xué)會構(gòu)造私有知識庫,擴展 AI 的能力??焖匍_發(fā)一個完整的基于 agent 對話機器人。掌握功能最強的大模型開發(fā)框架,抓住最新的技術(shù)進(jìn)展,適合 Python 和 JavaScript 程序員。
- 為什么要做 RAG
- 搭建一個簡單的 ChatPDF
- 檢索的基礎(chǔ)概念
- 什么是向量表示(Embeddings)
- 向量數(shù)據(jù)庫與向量檢索
- 基于向量檢索的 RAG
- 搭建 RAG 系統(tǒng)的擴展知識
- 混合檢索與 RAG-Fusion 簡介
- 向量模型本地部署
- …
第三階段(30天):模型訓(xùn)練
恭喜你,如果學(xué)到這里,你基本可以找到一份大模型 AI相關(guān)的工作,自己也能訓(xùn)練 GPT 了!通過微調(diào),訓(xùn)練自己的垂直大模型,能獨立訓(xùn)練開源多模態(tài)大模型,掌握更多技術(shù)方案。
到此為止,大概2個月的時間。你已經(jīng)成為了一名“AI小子”。那么你還想往下探索嗎?
- 為什么要做 RAG
- 什么是模型
- 什么是模型訓(xùn)練
- 求解器 & 損失函數(shù)簡介
- 小實驗2:手寫一個簡單的神經(jīng)網(wǎng)絡(luò)并訓(xùn)練它
- 什么是訓(xùn)練/預(yù)訓(xùn)練/微調(diào)/輕量化微調(diào)
- Transformer結(jié)構(gòu)簡介
- 輕量化微調(diào)
- 實驗數(shù)據(jù)集的構(gòu)建
- …
第四階段(20天):商業(yè)閉環(huán)
對全球大模型從性能、吞吐量、成本等方面有一定的認(rèn)知,可以在云端和本地等多種環(huán)境下部署大模型,找到適合自己的項目/創(chuàng)業(yè)方向,做一名被 AI 武裝的產(chǎn)品經(jīng)理。
- 硬件選型
- 帶你了解全球大模型
- 使用國產(chǎn)大模型服務(wù)
- 搭建 OpenAI 代理
- 熱身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地計算機運行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何優(yōu)雅地在阿里云私有部署開源大模型
- 部署一套開源 LLM 項目
- 內(nèi)容安全
- 互聯(lián)網(wǎng)信息服務(wù)算法備案
- …
學(xué)習(xí)是一個過程,只要學(xué)習(xí)就會有挑戰(zhàn)。天道酬勤,你越努力,就會成為越優(yōu)秀的自己。
如果你能在15天內(nèi)完成所有的任務(wù),那你堪稱天才。然而,如果你能完成 60-70% 的內(nèi)容,你就已經(jīng)開始具備成為一名大模型 AI 的正確特征了。
這份完整版的大模型 AI 學(xué)習(xí)資料已經(jīng)上傳CSDN,朋友們?nèi)绻枰梢晕⑿艗呙柘路紺SDN官方認(rèn)證二維碼免費領(lǐng)取【保證100%免費
】
123?spm=1001.2014.3001.5501)這份完整版的大模型 AI 學(xué)習(xí)資料已經(jīng)上傳CSDN,朋友們?nèi)绻枰梢晕⑿艗呙柘路紺SDN官方認(rèn)證二維碼免費領(lǐng)取【保證100%免費
】