苹果公司的人工智能团队最近在一篇研究论文中描述了一种名为ReALM的模型,可以显著提升SiRi的智能表现,优于OpenAI的知名语言模型GPT-4.0。
ReALM可以同时理解用户屏幕上的内容和正在进行的操作,将信息分为屏幕实体、对话实体和背景实体三种类型。
在测试中,ReALM在识别不同类型实体方面取得了显著进步,即使是最小的模型,在屏幕实体识别上的准确率也比原有系统提升了5%以上。
论文结论之一是,ReALM可以在性能上与GPT-4匹敌,在处理特定领域的用户指令时表现更加出色,成为一种可以在设备端运行的实用高效的实体识别系统。
外界普遍期待苹果在即将召开的WWDC 2024开发者大会上展示更多的人工智能技术成果。
