蘋果AI不再紙上談兵 總部直擊通話翻譯、視覺智慧操作

(中央社記者吳家豪台北15日電)蘋果公司個人智慧系統Apple Intelligence自去年6月發表以來,多項新功能推出速度不如預期,遭外界批評。今年蘋果在全球開發者大會(WWDC)力圖翻身,透過實際動手操作,向媒體展示如何在日常生活中使用通話即時翻譯、視覺智慧辨識截圖等新功能。
蘋果於台灣時間6月10日至14日舉辦的WWDC甫落幕,儘管在Keynote發表會預錄影片中提到,需要更多時間打造讓語音助理Siri更加個人化的功能,但Apple Intelligence的更新腳步並未停下,預計今年稍晚將新增支援包含繁體中文在內的8種語言。
中央社記者受邀前往蘋果美國總部Apple Park參加WWDC實體特別活動,實際觀察Apple Intelligence相關功能展示,蘋果團隊成員使用升級iOS 26測試版系統的iPhone撥打電話,模擬向西班牙飯店預訂6人房住宿並詢問價格的情境。
電話接通後,iPhone通話介面可以啟用Apple Intelligence驅動的Live Translation(即時翻譯)選項,把電話另一頭真人所說的西班牙語,即時翻譯成英語與英文,系統也可以從國碼自動判斷需要什麼語言。
在擴音模式下,發話者可以看到對方說的原文和翻譯後的字幕,雖然通話雙方都聽得到翻譯後的語音,但播放給受話方時,發話方聽到的聲音會小一點。
這項即時翻譯技術是在iPhone裝置端運作,與通話對方使用的電話類型無關,即使市內電話或Android手機也可以,而且所有翻譯的對話都會留在裝置上。
在另一項展示,蘋果團隊成員示範視覺智慧(Visual Intelligence)如何判讀iPhone畫面上的內容,並採取相關操作。例如朋友傳來與設計海報相關的活動圖片,截圖後除了可以編輯、分享或標記,還新增「視覺智慧」選項,會自動詢問是否加入行事曆;如果截圖中有2張以上圖片,系統會優先檢視最顯眼或最上方的圖片。
如果在對話中,朋友傳送圖片詢問是否要一起玩某款桌遊,透過截圖啟用視覺智慧後,可以連結聊天機器人ChatGPT詢問這款桌遊適不適合自己。這項功能不需要登入ChatGPT帳號也能使用,但有用量限制,達到每天的次數上限後,會自動改用非高階模型回答問題。
對蘋果而言,Apple Intelligence的兩大關注重點,一是深度整合在不同平台系統,二是確保隱私。Apple Intelligence會自然出現在使用過程當中,讓使用者沒察覺正在使用人工智慧(AI)或大語言模型,這點跟其他需要連結雲端的AI模型不太一樣。
為了加速打造Apple Intelligence應用,蘋果在今年WWDC宣布開放開發者存取Apple Intelligence的裝置端基礎模型,幫自家App打造以隱私為原則、即使離線也能使用的智慧技術,無須支付任何雲端應用程式介面(API)費用。
根據蘋果公布的技術論文,裝置端基礎模型參數量與去年相同、約30億個,但運作效率大幅提升,可以優化某些文本工作,例如文字摘要、資訊擷取、文字分析、寫作改進、短篇對話、生成創意內容等。至於能夠提供廣泛知識的聊天機器人,就不在Apple Intelligence裝置端基礎模型的應用範圍內。
蘋果並未硬性區分哪些應用或服務使用裝置端基礎模型進行運算、哪些使用伺服器端基礎模型,而是根據使用情境來決定,保有一定彈性。即使使用者資料傳送到伺服器端進行運算處理,再傳回裝置上,也會立刻被消除,確保沒人可以取得這些數據,就算是蘋果也不行,具有高度安全性。(編輯:林家嫻)1140615
- 2025/06/15 20:31
- 蘋果AI不再紙上談兵 總部直擊通話翻譯、視覺智慧操作2025/06/15 16:54
- 2025/06/14 21:21
- 2025/06/13 21:56
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。