StabilityAI是人工智能驱动的StableDiffusion图像生成器背后的公司,它发布了一套开源大型语言模型(LLM),统称为StableLM。在周三发布的一篇帖子中,该公司宣布其模型现已可供开发人员在GitHub上使用和改编。
与其ChatGPT竞争对手一样,StableLM旨在高效地生成文本和代码。它在称为Pile的开源数据集的更大版本上进行训练,其中包含来自各种来源的信息,包括Wikipedia、StackExchange和PubMed。StabilityAI表示,StableLM模型目前可用的参数在30亿到70亿之间,随后将有15到650亿个参数模型可用。
虽然StableLM扩展了StabilityAI已经与非营利组织EleutherAI合作开发的开源语言模型,但它也建立在使AI工具更易于访问的使命之上,就像它对StableDiffusion所做的那样。该公司通过多种方式提供其文本到图像AI,包括公开演示、软件测试版和模型的完整下载,允许开发人员使用该工具并进行各种集成。
我们甚至可能会在StableLM以及上个月在线泄露的Meta开源LLaMa语言模型中看到同样的情况。正如我的同事JamesVincent所指出的,StableDiffusion的发布导致了“更多好事和更多坏事的发生”,并且“我们很可能会再次看到类似的动态在AI文本生成中上演:更多的东西,更多的时候。”
您可以尝试在HuggingFace上托管的StableLM微调聊天模型的演示,当我尝试询问它如何制作花生酱三明治时,它给了我一个非常复杂且有点荒谬的食谱。它还建议我在慰问卡上添加一张“有趣的图画”。StabilityAI警告说,虽然它使用的数据集应该有助于“将基本语言模型引导到‘更安全’的文本分布中,但并不是所有的偏见和毒性都可以通过微调来减轻。”