Re: [討論] chatGPT會取代軟體工程師嗎?

軟工

34220

提供一個有趣的觀點

在 堆疊溢出 的網站有關於一則公告內容是禁止 chatgpt 回文。
底下有一個 AI 研究員的論點很有趣。

https://meta.stackoverflow.com/questions/421831/
temporary-policy-chatgpt-is-banned?cb=1

有意願看英文詳細的可以直接搜尋TL;DR,第三個就是了。
我這邊簡單敘述大意

stackoverflow 應該禁止所有 AI 回文,因為 chatgpt 是基於 stackoverflow 上
訓練的,如果 stackoverflow 不禁止會導致無法訓練 2022 年以後的 AI,
因為 AI 無法分辨訓練資料這是 AI 回文還是人類回文,會導致 Circular reasoning。

這意味著 AI 還是是需要真正人類的資料去訓練,如果不訓練就無法進步。
除非你的公司有 FAANG 一樣大,不然我不認為可以訓練出足夠強大的 offline
chatgpt。

我覺得這個論點很有趣的地方在於,實務上你是無法禁止AI回文的,也就是說 AI 訓練
會出現一個死胡同,越強的語言模型會被濫用的越嚴重,最終會有一個上限。

我大概可以猜測為何使用 stackoverflow 訓練,因為有問題有答案,答案還
大部分都有標準解答,跟 chatgpt 與你聊天的模式有點像。

簡單來說你想用 chatgpt 解決工程師就會有雞生蛋,蛋生雞的問題。
你開除工程師,就沒訓練資料可用,沒訓練資料可用的 chatgpt 就不能產生 code
最終還是要請工程師開發。

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.10.119 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1678178344.A.05B.html
quickbym11樓 03/07 17:09
RayLeeRock2樓很有意思的觀點 03/07 18:27
ohmylove3473樓可以換個角度,能被AI回答的問題,本身就屬於 已解決 03/07 18:34
ohmylove3474樓/爛問題 ,比起禁止AI回答,不如說是禁止能被AI輕易 03/07 18:34
ohmylove3475樓解答的問題發文,像是Quora好像就有導入相關使用 03/07 18:34
GoalBased6樓禁的原因是因為錯誤率太高但是回答品質又高。我在revie 03/07 18:51
GoalBased7樓w 的時候都會覺得是高品質的回答但答案卻是錯的 03/07 18:51
GoalBased8樓而且那種code 會有人覺得寫的很好,但其實在很多情況下 03/07 18:56
GoalBased9樓會出bug 03/07 18:56
JaccWu10樓簡單來說 AI回文可能導致從自己身上學習 03/07 19:02
JaccWu11樓使得既有的錯誤被強化這樣? 03/07 19:02
JaccWu12樓AI自己污染了訓練資料 03/07 19:03
jonathan79313樓不認同 因為最後答案還是人去標的 如果ai回錯了就不 03/07 19:40
jonathan79314樓會被當成訓練資料 03/07 19:40
superpandal15樓所以閉源好 自己寫的又跟別人寫的很不一樣 03/07 20:52
superpandal16樓黑魔法就是讚 03/07 20:55
yueayase17樓讚,這表示工程師的思路才是真正有價值的地方 03/07 21:34
shortoneal18樓所以標仔也得是個高手,不然難一點的問題你連判斷他 03/07 21:47
shortoneal19樓對不對都沒辦法 03/07 21:48
bnd032720樓挑點讚率高的答案就好啦,哪需要人肉標 03/07 22:58
TAKADO21樓就是訓練時拿已經被AI標過的資料再回去餵AI,或是兩套AI戶 03/07 23:22
TAKADO22樓餵資料,就會發生各種神奇現象。 03/07 23:22
maypcc23樓不會啊,因為2022後又不是只有chatgpt回文 03/08 01:01
maypcc24樓還是會有真人回 03/08 01:01
now9925樓拿奇摩知識+的資料訓練不知道會走鐘成什麼樣子 03/08 01:27
stu5121126樓有趣的切入點 學習了 03/08 03:10
eva1945200227樓再訓練新的AI來判斷是AI回文或是人類回文不就好了 03/08 05:58
ku39999928樓6樓才是對的 03/08 06:31
EKman29樓就是ai 還不夠強大啊,似懂非懂要怎麼用 03/08 08:31
EKman30樓跟死胡同是不同的兩個問題 03/08 08:31
比較好的做法確實是挑打勾的答案,目前這個結論是推測 chatgpt 沒有這樣做。 至於不這樣做的原因不知道,我猜是因為要更多訓練資料吧。 因為這個是語言模型,不是 coding ai。