俄罗斯搜索巨头 Yandex 发布了 YaLM 100B ,它是一个利用了 1000 亿个参数、类似 GPT 的神经网络,用于生成和处理文本。目前该模型基于 Apache 2.0 许可托管在 GitHub 上。 Yandex 花了 65 天的时间在包含 800 个 A100 显卡和 1.7 TB 在线文本、书籍和无数其他资源的池中训练了模型。YaLM 高级开发人员 Mikhail Khrushch...

新闻来源:Yandex 开源 YaLM 100B:千亿参数的类 GPT 模型