IT之家6 月6 日消息,蘋果在周一的WWDC 2023 主題演講中,除了發布了備受期待的Mac Pro 和Vision Pro 等新產品外,還展示了其在機器學習領域的最新進展。不過IT之家注意到,與微軟和谷歌等競爭對手大力宣傳生成式人工智慧不同,蘋果公司在演講中並沒有提及「人工智慧」這個詞,而是更多地使用了「機器學習」和“ML”這樣的術語。
例如,在 iOS 17 的演示中,軟體工程資深副總裁 Craig Federighi 介紹了自動糾錯和語音辨識的改進:
自動糾錯是由裝置上的機器學習驅動的,多年來,我們不斷地提升這些模型。鍵盤現在利用了一種 transformer 語言模型,這是目前最先進的字詞預測技術,使得自動糾錯比以往更準確。而且,借助 Apple Silicon 晶片的強大性能,iPhone 可以在你每次按下一個鍵時運行這個模型。
值得注意的是,蘋果公司在其主題演講中提到了人工智慧領域的一個術語「transformer」。該公司具體談到了一種“transformer 語言模型”,這意味著其人工智慧模型使用了transformer 架構,這是近期許多生成式人工智慧所使用的底層技術,例如DALL-E 圖像生成器和ChatGPT 聊天機器人。 transformer 模型(一個於 2017 年首次提出的概念)是一種用於自然語言處理(NLP)的神經網路架構,採用了自註意力機制,使其能夠優先處理序列中不同的單字或元素。其能夠並行地處理輸入,從而顯著提高了效率,並在 NLP 任務中取得了突破性的進展,如翻譯、摘要和問答。
根據蘋果公司介紹,iOS 17 中的新 transformer 模型可以實現句級別的自動糾錯,當你按下空格鍵時,它可以完成一個單字或整個句子。也會根據你的寫作風格進行學習,從而指導其建議。蘋果也表示,語音辨識「採用了一種基於 transformer 的語音辨識模型,利用神經引擎使語音辨識更加準確」。
在主題演講中,蘋果也多次提到了“機器學習”,例如在描述新iPad 鎖定螢幕功能(“當你選擇一張Live Photo 時,我們使用先進的機器學習模型來合成額外的幀」);iPadOS PDF 功能(「感謝新的機器學習模型,iPadOS 可以識別PDF 中的字段,讓你可以使用自動填充功能快速填寫信息,例如從你的聯絡人中獲取的姓名、地址和電子郵件等。」);AirPods 自適應音訊功能(「透過個人化音量,我們使用機器學習來了解你的聆聽偏好隨時間的變化」);以及Apple Watch 小部件功能Smart Stack(「Smart Stack 使用機器學習在你需要的時候向你展示相關資訊」)。
蘋果公司也推出了一款稱為 Journal 的新應用,可利用裝置端機器學習提供個人化建議,為使用者帶來日記靈感。這些建議根據使用者近期活動智慧生成,包括照片、人物、地點、體能訓練等,幫助使用者更輕鬆地開始記錄。
最後,在示範 Vision Pro 頭戴裝置時,該公司透露,使用者眼睛上的動態影像是由掃描你的臉部創建的一個特殊的 3D 頭像 —— 當然,這也是機器學習的功勞。
以上是蘋果 WWDC23 不提'人工智慧”,更傾向於使用'機器學習”的詳細內容。更多資訊請關注PHP中文網其他相關文章!