Λ - 资讯摘要✂️:
「 thecat: 嘿 Amazon 居然研發了一個屌打 GPT3.5 的 LLM,相較於 GPT 的參數量高達 175 billion 它只用 1 billion 個參數建模準確度就高達 91.68% (GPT 是 75.17%),更有趣的是它架構也不複雜且已完整開源,連訓練好的模型也能直接下載,你只要有張卡就能玩啦~🤩 論文 : https://t.co/B51efh16Ml https://t.co/Nx2SMLZCEL 」 https://twitter.com/thecat/status/1628338286417833985
「 thecat: 嘿 Amazon 居然研發了一個屌打 GPT3.5 的 LLM,相較於 GPT 的參數量高達 175 billion 它只用 1 billion 個參數建模準確度就高達 91.68% (GPT 是 75.17%),更有趣的是它架構也不複雜且已完整開源,連訓練好的模型也能直接下載,你只要有張卡就能玩啦~🤩 論文 : https://t.co/B51efh16Ml https://t.co/Nx2SMLZCEL 」 https://twitter.com/thecat/status/1628338286417833985