轉載從: Tech News 科技新報
還記得因為文筆太好被 OpenAI 宣布暫緩公開的自動寫作 AI 模型 GPT2 嗎?近日 OpenAI 釋出了一個更強大的新版本,表示將密切關注人們的使用情況。
今年 2 月初,馬斯克(Elon Musk)創立的非營利研究機構 OpenAI 宣布旗下正在研究一款自動寫作 AI 模型 GPT2,但因為 GPT2 寫作的文筆實在太好,將延後公開研究,花更多時間討論可能產生的效應以避免潛在濫用。
由於延後的選擇相當罕見,此舉也引發外界許多討論;一些人支持 OpenAI 的謹慎決定,一些人則認為宣傳有多危險單純只是在炒新聞。
無論如何,OpenAI 近期釋出了 GPT-2 新版本的內容。在 AI 工程師 Adam King 的協助建置下,你現在可以前往網站親身體會它的作用。
▲ 粗體字為人工提供給 AI 的部分。(Souce:Talk to Transformer)
據了解,OpenAI 一共為 GPT-2 模型開發了 4 種大小版本,2 月初首次公布的是 GPT-2 的小型模型(124M),5 月公布的則是中型模型(355M),此次公布的則是進階模型(774M)。
儘管仍不完美,但與先前公布的中小模型相比,774M 的寫作明顯更為流暢,也更難看出是由機器所編寫,這也不禁讓人好奇有 15.58 億個參數、使用 800 萬個網站訓練的大型模型,所寫出來的文章究竟會是什麼樣子?
OpenAI 目前正和 4 家領先的研究機構合作,針對模型造成假新聞、遭極端主義濫用的可能進行分析,除此之外他們也將觀察人們使用 774M 模型的方式,來決定是否要按照原定計畫,在未來數個月內發布 1558M 的完整模型。
- GPT-2: 6-Month Follow-Up
- This AI-powered text generator is the scariest thing I’ve ever seen — and you can try it
(首圖來源:pixabay)