tft每日頭條

 > 科技

 > ios14自動聽寫

ios14自動聽寫

科技 更新时间:2024-11-26 14:56:12

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)1

智東西(公衆号:zhidxcom)

文 | James

今年6月召開的蘋果全球開發者大會(WWDC)上,蘋果發布了幾大平台的下一代操作系統,其中包括iOS 14、iPadOS 14、macOS Big Sur、tvOS 14以及watchOS 7,并于7月正式推出了公測版系統。即将進入秋季,蘋果也将在近期向用戶推送幾大操作系統的正式版。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)2

iOS 14界面

智東西記者體驗iOS 14已經超過1個月的時間,近期也想聊聊iOS 14究竟有哪些我們不太容易發現,用上了就回不去的那種更新。

一、新增翻譯APP 設備端翻譯比線上更快

iOS 14的重大更新之一是就是為iPhone加入了翻譯APP,親測同樣裝有iOS 14的iPod touch(第7代)無法安裝翻譯APP。在之前,如果和外國人對話又聽不懂對方在說什麼的時候,我會很自然地打開谷歌翻譯或者iTranslate這樣的翻譯軟件,基本不會讓Siri來翻譯。

這是因為此前版本的Siri隻能同時識别一種語言,無法用于對話翻譯。而在iOS 14中,新加入的翻譯APP,則可以直接翻譯兩個人的對話。如果此時将屏幕橫過來,就會進入交談模式,左側顯示正在說的話,右側顯示翻譯後的語言,并播放出來。

據了解,在這個過程中,翻譯APP使用iPhone的設備端機器學習技術以及Apple神經網絡引擎,讓兩人之間的交談聽起來更加自然。

實際使用過程中,可以在設備聯網狀态下在線翻譯,同時也可以提前下載語音包,支持無網絡狀态下離線翻譯。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)3

翻譯APP中法語翻譯中文

離線翻譯的過程中,翻譯APP也使用了設備端機器學習技術,讓翻譯更加準确。

另外在使用中我還發現了一個小細節,設備端離線翻譯的速度更快。在離線的設備端模式下,如果說一個短句或一個詞語,基本話音剛落手機就能翻譯出結果;如果說一個長句,翻譯和識别的時間稍長。

但是如果聯網線上翻譯,雖然在遇到生僻詞語的時候翻譯可能會更準确,但是整體翻譯時間都比較長。即便在網絡通暢的情況下,一個長句的翻譯時間也可能會超過10秒鐘。

在支持的語言上,目前翻譯APP一共支持11種語言,包括英、法、德、意、日等常見語種。

二、Siri懂更多 回應更流暢

在iOS 14中,還有個重大升級就是Siri。如今,Siri已經發布9年了,但是我們在使用Siri的時,還和9年前沒有多大差别,問天氣、問路、發條消息、打個電話……這些事9年前的Siri也能做到,難道蘋果沒有升級嗎?

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)4

iOS 14中的Siri不再占用全屏幕

實際并非如此。多年之前,羅永浩曾在一次發布會上說過:“在人工智能沒有實現之前,任何智能語音都是不能冒充人工智能的。”所以,蘋果在兩年前為Siri加入了快捷指令,允許用戶對Siri能做的事情進行自定義。

而在今年,Siri自己的“知識儲備”也正在快速進步。據了解,如今Siri所知道的東西已經是三年前的20多倍,我們可以問Siri更複雜的問題。

在iOS 13中,Siri最喜歡的就是在網頁中搜索内容,如果問Siri一個不常見名詞,會直接開啟網頁搜索。而這樣的搜索效率非常低下,經常找不到目标答案。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)5

iOS 14中Siri知識更豐富

而在iOS 14中,Siri不僅可以在網頁中搜索内容,還能通過Siri Knowledge積累的知識,将最關鍵信息呈現出來。

由于機器學習技術取得的進步,過去幾年中,語音識别、自然語言理解和文本轉語音 (TTS)等Siri核心要素,在準确性方面都有了重大提升。

例如,iOS 13與iOS 12相比,語音聽起來就更為流暢,在iPhone XS以及更新機型中,從iOS 13.2開始,神經網絡TTS就完全在設備端運行。

除Siri之外,和Siri功能相近的聽寫功能在iOS 14中也有很大提升。鍵盤聽寫功能采用了與Siri相同的語音識别技術。利用神經網絡引擎,Siri聽寫功能可以完全在設備端完成。

通俗點說,就是iOS 14可以實現設備端的語音轉文字。

實際體驗上看,設備端聽寫的速度更快,轉化速度和人說話的速度基本一緻,并且準确率較iOS 13有了很大提升。

三、小組件終于登上舞台 智能疊放不同APP

實際上,iOS 14還有一大變化,就是加入了小組件,讓13年來始終如一的圓角矩形APP圖标得以放大。據了解,小組件的目的還是為了向用戶更直觀地展示應用内信息,例如天氣、音樂、推薦照片、當前地點等。

這些信息在之前的iOS版本中需要點按APP圖标才能顯示,同時大多也隻需要一步點按就能查看到信息。iOS 14中,通過簡化這一步驟,讓信息直接呈現在主屏幕上。

可能有人會說,這項功能在安卓手機上早已實現,并非新奇。蘋果同樣意識到了這一點,允許用戶創建小組件智能疊放。這項小小的智能疊放功能實際也利用了利用設備端智能技術,根據時間、地點和活動來呈現适當的小組件。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)6

iOS 14中小組件智能疊放

例如,當我早上起床,智能疊放小組件就會展示當前的天氣信息;當我到達一個不常去的位置,小組件會展示當前所在位置的地圖信息,以防我迷路;當我晚上回到家中,小組件又會展示此前拍攝的照片,可以在晚上回憶照片中的美好時光。

四、輔助功能再變強大 輕點兩次手機背面就能快捷操作

在iOS系統用中,蘋果也為需要輔助才能使用手機的用戶開發了不少實用功能。例如利用旁白功能,可以為視障用戶朗讀當前屏幕中顯示的内容。

在iOS 14中,蘋果讓旁白功能更加強大。此前,可用于旁白功能的APP并不多,這是因為添加旁白功能需要開發者做額外的标記。

而在iOS 14中,蘋果為了讓更多的APP都支持旁白功能,開發了利用設備端機器學習的功能,即使某些APP沒有正确标記旁白功能,也不影響用戶使用。預計在iOS 14正式版推送之後,支持旁白功能的APP将達到百萬量級。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)7

我個人設置輕點兩下手機背面鎖定屏幕

在iOS 14的輔助功能中,還允許用戶輕點手機背面,啟用屏幕滾動、音量調節或者打開控制中心。由于iPhone手機的背面并沒有專門設置傳感器采集人的輕點動作,需要利用手機的加速度計完成判斷。同樣是 利用設備端機器學習技術和神經網絡引擎,可以判斷用戶輕點了兩次還是三次手機背面,以觸發不同的操作。

背面輕點功能還能和Siri捷徑聯動,實現更多功能。可以在快接指令APP中設置輕點三次打開相機, 輕點兩次打電話給家人。

結語:蘋果自研芯片助力實現設備端智能化

近兩年,随着芯片技術的不斷升級,蘋果自研芯片的機器學習能力也在不斷提升。

此外,蘋果還在A13芯片的中央處理器中加入了機器學習加速器。這些加速器為機器學習計算中經常使用的運算而設計,讓更快運行矩陣乘法。專用加速器讓中央處理器處理矩陣數學運算的速度最高提升達 6 倍,使得中央處理器每秒能夠處理超過1萬億次運算。

因此,設備端的機器學習才能得以實現。實際上,在這一個多月的iOS 14體驗中,搭載A 13處理器的iPhone SE能夠以更快的速度在設備端完成聽寫、翻譯工作,Siri可以讓我不需要随時拿起手機,智能設備正逐漸走向更加智能。

ios14自動聽寫(iOS14使用秘籍手機端比雲端更智能)8

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关科技资讯推荐

热门科技资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved