深圳幻海软件技术有限公司 欢迎您!

  • 区块链与人工智能如何融合到万维网

    事实上,这是一个神奇的世界——但由名为GPT-3的人工智能设计。唯一需要的输入是句子“一只长着翅膀的猫在公园里散步”。GPT-3跨越77行设计了Stella和Fox的相遇。自测试阶段开始以来,该对话框只是开发人员在Internet上发布的众多应用程序之一。人类与人工创造的界限以一种彻头彻尾的可怕方式

  • 这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3

    千亿、万亿参数的超大模型需要有人研究,十亿、百亿参数的大模型同样需要。刚刚,Meta首席AI科学家YannLeCun宣布,他们「开源」了一个新的大模型系列——LLaMA(LargeLanguageModelMetaAI),参数量从70亿到650亿不等。这些模型的性能非常优异:具有130亿参数的LLa

  • 如何提升深度学习算法效率,谷歌有这些绝招

    十年前,深度学习崛起的部分原因在于新算法和架构的融合、数据的显著增加以及计算能力方面的提升。过去10年里,AI和ML模型更加深入、复杂、有了更多的参数和训练数据,也因而变得更大、更繁琐,这也为机器学习历史带来了最具变革性的成果。这些模型越来越多地应用于生产和业务应用程序中,与此同时,其效率和成本已经

  • 算力芯片+服务器+数据中心,如何测算ChatGPT算力需求?

    ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。以GPT模型为代表的AI大模型训练,需要消耗大量算力资源,主要需求场景来自:预训练+日常运营+Finetune。以预训练为例,据测算,进行一次ChatGPT的模型预训练需要消耗约27.5PFlop/s-day

推荐阅读