2024-06-11 12:40来源:得道网
苹果公司宣布了其虚拟助手Siri的几项人工智能功能,比如更新的设计,对语音命令的说话和理解方式的改进,以及与OpenAI的ChatGPT模型的集成。
苹果公司在6月10日的WWDC大会上宣布了其中的一些功能,这些功能是由苹果智能(Apple Intelligence)提供的。苹果智能是该公司新的专注于隐私的个人智能系统,该公司表示,该系统将能够代表用户控制应用程序中的行为。苹果公司表示,对于Siri,这些功能包括从用户的电子邮件中检索信息,如果用户要求查看他们妈妈的航班何时着陆,或者能够在设备上定位驾驶执照的图像,并提取这些信息来为你填写表格。
苹果公司表示,Siri的更新设计使其在整个设备上更加突出,在使用时屏幕上显示一个发光的多色边框。Siri还应该更有能力理解用户在与助手交谈时偶然说出的话,并能在请求之间保持对话的上下文——例如,在提供该地点的天气信息后,为特定地点安排活动。
用户也可以通过简单地描述他们想要使用的应用程序或功能来提出请求,Siri能够理解并获取相关信息。此外,用户很快就可以通过双击屏幕底部向Siri输入他们的问题和请求,并可以通过输入或语音命令继续这些操作。
苹果公司表示,苹果智能系统赋予Siri“屏幕感知”功能,使其能够采取行动并理解你屏幕上的内容,从而在有人向你发送新信息时更新联系人卡片上的地址。Siri能够在应用程序内执行“数百个”操作,这将使它能够完全通过语音命令执行复杂的任务,比如获取朋友在特定地点或服装上的照片,并在被要求时增强这些照片,让它们“流行起来”。
对于即将到来的ChatGPT集成,苹果表示Siri将能够“在ChatGPT可能对你有帮助的时候利用它的专业知识”,比如在询问食谱建议时。Siri将询问用户是否可以使用ChatGPT完成请求,如果获得用户批准,Siri将直接在设备屏幕上显示该信息。
在今天的声明之前,几个月来一直有关于苹果人工智能计划的报道和传言,包括努力开发自己的大型语言模型框架。ChatGPT集成预计将于今年晚些时候推出,而由苹果智能(Apple Intelligence)支持的Siri新功能将于“今年秋天”在美国推出iOS 18的测试版。
虽然Siri在2011年被引入iPhone 4S时对口头命令或问题的反应能力令人印象深刻,但它后来缺乏改进,让人感觉像是一个令人失望的事后想法。与此同时,OpenAI的ChatGPT和谷歌的Gemini等产品已经表明,人工智能工具和系统的功能远远不止于此。随着Siri功能的升级和ChatGPT的直接集成,苹果的虚拟助手现在可能有了它迫切需要的第二股力量。