苹果公司在 iPhone16 发布会上推出了备受期待的 AI 驱动的视觉智能功能,这项功能将 iPhone 的相机能力提升到了一个新的高度。它赋予 iPhone 与 Google Lens 类似的视觉搜索能力,用户只需拍摄照片即可获取相关信息,例如识别餐厅招牌并查找其位置和评价。这项创新功能极大地简化了信息获取流程,为用户带来更便捷、更智能的移动体验。
刚刚举办的 iPhone16发布会上,苹果公司不仅展示了新款 iPhone、AirPods 和 Apple Watch Series10,还首次推出了 AI 驱动的视觉智能(Visual Intelligence)功能。这项新功能让 iPhone 的相机具备了与 Google Lens 相似的能力,能够实现更智能的拍照体验。
苹果的视觉智能功能让用户可以通过拍照来捕捉身边的物体,比如单或者餐厅招牌,然后利用 iPhone 的 AI 技术来搜索并提供更多相关信息。用户只需打开相机,拍摄想要识别的物品,iPhone 就会迅速处理并反馈信息。
此外,苹果还特别强调了数据隐私。用户的拍摄数据将会保存在苹果的私人云计算中,确保安全。但是,如果用户愿意,还可以选择与方服务进行整合。例如,用户可以选择将拍摄的内容直接搜索到 Google 类似于直接在相机应用中打开 Google Lens。
更有趣的是,苹果还引入了 ChatGPT 的整合。用户可以允许 ChatGPT 处理通过相机捕获的图像数据,进一步获取详细的信息和建议。这一切都需要用户根据自己的需求来选择是否开启相应的权限。
值得一提的是,尽管 iPhone16和 iPhone16Plus 已经开始接受预订,价格分别为799美元和899美元,但视觉智能功能并不会立即上线。苹果表示,这些 AI 功能将在下个月开始逐步推出测试版本,未来几个月还会陆续增加更多功能。
划重点:
苹果推出的视觉智能功能,让 iPhone 相机可以像 Google Lens 一样进行视觉搜索。
用户数据会保存在苹果的私人云计算中,保障隐私安全。
未来还可以与第三方应用如 ChatGPT 进行整合,获取更多信息。
总而言之,苹果的视觉智能功能是 iPhone 相机的一次重大升级,它将改变用户与周围世界互动的方式。虽然目前功能还在测试阶段,但其潜力无限,值得期待其未来发展和更多功能的上线。