当前位置: 笔下文学> 其他类型> 2024年行情> 第79章 马斯克重拳出击,开源grok-1大模型(1/2)

第79章 马斯克重拳出击,开源grok-1大模型(1/2)

    在ai领域,开源已成为推动技术进步和创新的重要力量。roufeng近日,科技巨头特斯拉的创始人埃隆·马斯克再次展现了他在ai领域的雄心壮志,宣布开源其旗下ai创企xai开发的大语言模型grok-1。这一举动不仅使得grok-1成为当前参数量最大的开源大语言模型,更在业界引发了广泛关注。

    马斯克一直对openai的开放性持怀疑态度,此次开源grok-1可谓是对openai的一次有力回应。在社交平台上,马斯克含沙射影地表示:“我们想了解更多openai的开放部分。”这番言论无疑加剧了业界对于ai开源与闭源之争的关注度。

    grok-1的开源不仅意味着其模型权重和架构将遵循apache 20协议向公众开放,更重要的是,它允许用户自由地使用、修改和分发软件,无论是个人还是商业用途。这种开放性不仅有助于推动ai技术的普及和应用,更能激发更广泛的研究和创新活力。

    值得注意的是,grok-1作为一个拥有3140亿参数的混合专家(xture-of-experts,e)大模型,其规模之大令人咋舌。相比之下,openai的gpt-35模型仅有1750亿参数。如此庞大的参数量使得grok-1在语言理解和生成能力上具备了强大的优势。这也意味着,要使用和测试grok-1,用户需要拥有足够gpu内存的机器。据网友表示,这可能需要一台拥有628 gb gpu内存的机器,这无疑提高了使用该模型的门槛,但也从侧面反映了其技术含量的高度。

    在grok-1的开发过程中,xai团队展现出了极高的技术实力和创新精神。他们首先训练了一个330亿参数的原型语言模型grok-0,并在标准语言模型测试基准上取得了接近l2(70b)的能力。随后,他们对模型的推理和编码能力进行了重大改进,最终开发出了功能更为强大的grok-1。在huneval编码任务和中,grok-1均取得了优异的成绩,超过了包括chatgpt-35在内的其他计算类模型。

    与其他大模型相比,grok-1的独特之处在于它是一款从头训练的大模型。xai团队使用自定义训练堆栈在jax和

上一章 章节目录 下一页