5月9日消息,ChatGPT的推出极大地激发了社会对生成式AI的兴趣,自那以来,相关创新的步伐不断加速。企业已从对生成式AI服务的初步评估转向开发并启用AI的应用程序。
为了真正降低进入AI创新的门槛,企业需要扩大参与AI项目的人员范围,同时控制相关成本。红帽总裁兼CEO Matt Hicks指出,“许多客户尝试过使用规模较小的模型进行微调和训练,但往往成效不佳。因此他们转而使用我所说的全知模型,这些模型通常在公共云中运行,参数量超过一万亿。尽管这些模型开箱即用能完成许多任务,但它们的运行和训练成本非常高。当你受限于云环境时,有很多场景是难以应对的。
比如,人们会在自己的笔记本电脑上运行模型以提高生产力,而我们的数据从未离开过我们的设备。这些模型无论用于编程还是写作,都能增强我们的工作效率,但它们无法在云工作流中得到增强。
Matt Hicks认为,无论是在笔记本电脑、工厂边缘还是汽车中,混合功能对于充分发挥AI的潜力都是关键。我们必须改进这些小型模型,使其更好地适应实际任务,这需要在特定用例上完成最后一段训练。这就是我们回归InstRUCt Lab的原因。仅仅发布一个有7亿、3亿或10亿参数的模型是不够的。我们需要使客户能够针对他们的具体应用场景,在笔记本电脑、边缘设备、汽车或数据中心训练这些模型。
InstRUCtLab是一个围绕LAB方法和IBM开源GRanITe模型构建的开源社区。InstRUCtLab项目的目标是使开发者通过简化LLM的创建、构建和贡献过程,像参与任何其他开源项目一样,将LLM开发的权力交到开发者手中。
日前,红帽公司宣布推出红帽企业linux AI(RHEL AI)。这是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型。
RHEL AI整合了IBM研究院的开源授权GRanITe大型语言模型(LLM)系列、基于大规模对话机器人对齐(LAB)方法的InstRUCtLab模型对齐工具,以及通过InstRUCtLab项目实施的社区驱动模型开发方法。
该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenSHift AI中。OpenSHift AI是红帽的混合机器学习运营(MLOps)平台,能够在分布式集群环境中大规模运行模型和InstRUCtLab。
具体来看,RHEL AI包括:
1.红帽支持和保障的开源许可GRanITe语言和代码模型。
2.提供支持并具有生命周期管理的InstRUCtLab分发版本,这是一种可扩展且成本效益高的解决方案,能够增强大型语言模型(LLM)的功能,并使知识与技能的贡献得到更广泛的用户接纳。
3.通过RHEL镜像方式提供的优化可启动模型运行实例,包括GRanITe模型和InstRUCtLab工具包,及优化的PyTorch运行时库和针对AMD Instinct™ MI300X、Intel和NVIDIA GPU以及NeMo框架的加速器。
4.红帽提供的完整企业支持和生命周期保证,从可信的企业产品分发开始,提供24小时全天候生产支持和扩展的生命周期支持。
红帽高级副总裁兼首席产品官Ashesh Badani表示,对企业来说,生成式AI(GenAI)代表了一次革命性的飞跃,但这需要企业真正部署起来,并针对其具体业务需求使用AI模型。通过结合红帽OpenSHift AI的广泛应用,RHEL AI和InstRUCtLab项目旨在降低混合云中生成式AI所面临的多种挑战,从数据科学技能的限制到巨大的资源需求,同时促进企业的部署并推动上游社区的创新。
据悉,红帽OpenSHift AI最新版本提供了:边缘模型服务、增强型模型服务、采用Ray支持分布式工作负载、改进模型开发、模型监控和可视化以及新的加速器配置文件。
目前,红帽企业linux AI已作为开发者预览版提供。在IBM云上已建立的GPU基础设施用于训练GRanITe模型并支持InstRUCtLab,现IBM云将增加对RHEL AI和OpenSHift AI的支持。此整合将使企业能够更轻松地将生成式AI部署至其关键任务应用程序中。
值得一提的是,对于当下热门的AI话题,Matt Hicks还分享了很多自己的思考,以下为部分对话实录:
你能谈谈为什么构建一个坚实的混合云基础对企业AI至关重要吗?红帽在这方面如何提供帮助?
问:你认为未来人工智能对IT人才的招聘和留任会有什么影响?
问:你认为传统的IT技术与人工智能会如何交融?
问:你认为亚太地区对人工智能的准备情况如何?
问:很多人对负责任的AI和AI安全感兴趣。红帽是否有任何具体计划或技术来推动这一理念?
问:红帽将人工智能模型提供与linux捆绑在一起。你认为在由大型语言模型主导的IT世界中,linux仍将是至关重要的技术吗?