Apple 在「It’s Glowtime」時間發布了最新的 iPhone 系列。 iPhone 16 和 16 Pro 型號是由 Apple 為 Apple Intelligence 全新製造的。如果你錯過了 Apple Intelligence 的備忘錄,這家科技巨頭今年 6 月在年度 WWDC 大會上發布了該備忘錄,這是他們對人工智慧的看法。
然而,該公司在 WWDC 期間遺漏了一項功能,這是正確的,因為它與 iPhone 16 系列的硬體變化有關。視覺智慧正在進入 iPhone,類似於 Android 上的 Google Lens,但前者由人工智慧提供支援。它有點類似於 Google 的 Gemini Live 或 OpenAI 的 ChatGPT-4o 高級模式(兩者尚未提供)的多模式(圖像/影片)輸入功能。但視覺智能似乎只能將影像作為輸入。
它是透過按住 iPhone 16 系列上的新相機控制按鈕來觸發的。
你可以向 Visual Intelligence 詢問任何事情。例如,如果您將相機對準餐廳,Visual Intelligence 可以快速調出餐廳營業時間、評級以及查看菜單或預訂的選項。
同樣,您可以將相機對準活動海報,並將其自動添加到您的日曆中。值得注意的是,Google 的 Gemini 可以在 Android 裝置上提供類似的幫助,甚至可以更進一步,通知您是否在該日期之前有任何承諾。
所有這一切均由設備上的智慧和不儲存影像的 Apple 服務相結合提供支援。此外,Visual Intelligence 還可以充當您通往 Google 和 ChatGPT 等第三方服務的閘道。介面顯示兩個按鈕 – 搜尋和詢問。
透過搜索,您可以向 Google 詢問有關您螢幕上的任何內容,例如您發現並想要購買的自行車。透過 Ask,您可以呼叫 ChatGPT,並尋求有關筆記等方面的協助。只有當您選擇使用第三方工具時,才會與第三方工具分享資訊。
該功能不會立即推出,將於今年稍後推出,目前還沒有有關發布日期的具體資訊。不過,該功能似乎也不會出現在支援 Apple Intelligence 的舊款 iPhone 上,因為 Craig Federighi 特別表示該功能將在今年稍後出現在「相機控制」中。
發佈留言