上周五,蘋果在其開發(fā)者網頁為開發(fā)者提供了3種關鍵資源,幫助開發(fā)者開發(fā)和推廣AR應用。這些資源包括AR界面設計,如何友好地讓用戶知道自己已經進入AR模式;如何錄制放置在App Store中的AR應用介紹視頻;以及如何利用人臉識別創(chuàng)建動態(tài)表情Animoji。
AR界面設計
關于AR的界面設計、操作等,蘋果給出了22條注意事項,幫助開發(fā)者打造用戶體驗更好的AR應用。雷鋒網了解到目前國內已經有不少團隊利用ARKit開發(fā)出了應用,這些注意事項你家app做到了嗎?
打造吸引人的體驗
1. 全屏顯示AR效果。讓真實世界的畫面和AR物體盡量占據(jù)整個屏幕,避免讓操作按鍵和其他信息切割屏幕,破壞沉浸感。
2. 讓擬真物體盡可能逼真。大部分的AR效果采用的是虛擬的卡通角色,但是如果采用現(xiàn)實中存在的物體應該讓它們做到與環(huán)境融為一體。為此,設計者應該設計有栩栩如生的質地的3D形象、在光照下能產生合理的陰影并且移動相機物體能發(fā)生改變。
3. 考慮物理世界的限制。用戶很可能在一個并不適合AR體驗的環(huán)境下操作你的AR應用,例如他們可能在一個狹窄的、沒有平面的區(qū)域。因此,設計者應該考慮不同場景下設計不同的使用方式和功能,并且提前告知用戶使用方法。
4. 考慮用戶體驗舒適度。長時間以一個角度或者距離拿住手機是一件并不愉快的事,所以要考慮到用戶使用你的手機的方式和時長是否會帶來不適。你可以通過減少游戲的級數(shù)或者在其中穿插休息時間來緩解用戶疲勞。
5. 漸進引導用戶的移動。如果你的應用是需要用戶移動的,不要在一開始就扔個炸彈讓用戶跳開,應該先讓用戶適應AR體驗,然后再鼓勵他們運動。
6. 留心用戶的安全。在有人或者物體的環(huán)境里大幅度的移動有可能造成危險,注意讓應用能安全地操作,避免大范圍或者突然地移動。
7. 使用聲音或觸覺反饋來提升沉浸感。音效或者震動反饋可以創(chuàng)造一種虛擬物體與真實物體接觸或者碰撞的感覺。在沉浸式的游戲中,音效可以讓人進入虛擬世界。請參見Audio和Haptic Feedback。
8. 將提示融入情境。例如要在一個物體旁邊提供一個三維旋轉的標志比提供文字要直觀。然而,如果用戶對情境提示沒有反應,可以再顯示文字。避免使用一些技術性術語, 例如:ARKit、環(huán)境偵測、追蹤等。
9. 避免AR體驗過程中的中斷。用戶每次進入AR時用戶都會重新分析環(huán)境、檢測平面,另外手機和相機的位置可能已經改變了。那么,先前放置的物體會被重新安置——它們或許無法再被放置在現(xiàn)實世界的平面上。避免中斷的方法是讓人們在不離開AR的情況下去改變物體和放置情況,例如在使用宜家的家裝AR放置一把沙發(fā)時,可以讓用戶能選擇不同的材質。
進入AR體驗
10. 提示初始化進程并且?guī)佑脩魠⑴c。每次用戶進入AR,都會有初始化評估環(huán)境的過程,這會花費數(shù)秒的時間。為了減少用戶的困惑以及加速進程,應該明確指示出這一過程并且鼓勵用戶探索他們的環(huán)境,積極尋找一個平面。
放置虛擬物體
11. 幫助用戶理解何時定位平面并且安放物體。虛擬標識是告知用戶平面定位模式正在進行的好辦法。屏幕中間的梯形標線可以提示用戶他們應該尋找一個垂直的寬闊的平面。一旦這個平面被定位了,應該更換標識外形告訴用戶現(xiàn)在可以安置物體。設計虛擬標識應該被視為App體驗的一部分。
12. 快速回應安置物體請求。平面?zhèn)蓽y過程中精確度是逐漸提高的,當用戶放置物體時應該使用當前已獲得的信息立刻回應,然后再優(yōu)化物體的位置。如果物體超出了偵測到的平面范圍,直接將其拉拽回來。不要將其無限靠近偵測到的平面的邊緣,因為這個邊緣并不是穩(wěn)定的。
用戶與虛擬物體的交互
13.支持直接操作而不是分離的屏幕操作。最為直觀的方式是讓用戶直接觸碰屏幕上的物體與之互動,而不是讓用戶去操作一個與與物體分離的控制按鈕。但是也要注意,當用戶在移動的時候這種直接的操作方式也可能混亂。
14.允許用戶使用標準的、熟悉的手勢來與虛擬物體互動。例如,考慮以單只手指來拖拽物體、兩只手指來旋轉物體。兩只手指按壓和兩只手指旋轉很容易混淆,應該對軟件進行識別度的測試。更多參考資料,見Gestures。
15.交互應盡量簡單。目前的觸碰手勢都是二維的,但是AR體驗是建立在三維的真實世界之上的。考慮以下的方式來簡化用戶與虛擬物體的交互。
16.回應近似范圍內的交互。要讓用戶準確觸碰一個小的虛擬物體會很難,因此可以設計成只要在可交互物體的附近監(jiān)測到用戶的行為那么就預設用戶想要移動這個物體。
17.考慮是否采用以用戶出發(fā)的縮放比例。如果虛擬物體是不具有固定的尺寸大小的玩具或者游戲角色,用戶想要看到其放大縮小的效果,那么縮放就是很合適的。但是對于擁有與真實世界對應的尺寸的物體來說,例如家居,縮放就沒有意義了。例如,當你放大這個家具時,他并不會看起來離你更近。
18.確保虛擬物體的運動是連貫的。當用戶縮放、旋轉或者移動物體到新位置時物體不應該突然跳出來。
19.探索更多吸引人的交互方式。手勢不應該是與虛擬物體交互的唯一方式。你的應用可以采用其他因素,例如運動或者逼近來讓內容有生命力。當用戶靠近一個游戲角色時,它可以回頭看用戶。
操作問題
20.允許用戶重置。如果用戶對虛擬物體的安放不滿意,不要強制用戶在當前狀況下改進,允許他們重新開始尋找更好的方案。
21.如果出現(xiàn)問題,提供合適的解決方案。許多情況可能導致偵測用戶環(huán)境失敗:亮度不夠、平面反光過高、平面沒有足夠的細節(jié)或者相機運動過多。如果應用檢測到了這些問題,應該給出解決問題的建議。
22.僅為合適的設備提供AR功能。如果你的app的主要功能是AR,那么讓你的app只能在支持ARKit的設備上安裝。如果你的app的AR功能只是附屬的——例如家居類的app提供AR的展示——則不要在不能支持ARKit的手機上顯示AR功能,避免讓用戶在進入AR功能時出現(xiàn)錯誤,開發(fā)者可以在UIRequiredDeviceCapabilities部分獲得相應指導。
AR 圖標
蘋果提供了AR圖標和AR標志,用以區(qū)分以ARKit為基礎的應用。在Resources中可下載。
錄制介紹視頻
iOS 11上線了錄屏功能,支持將AR應用效果錄制成視頻,可以放在App Store的App預覽中,方便用戶在下載前獲取應用的關鍵信息,吸引用戶下載。當然錄制時需要安排好應用演示的環(huán)境,不要有干擾信息。
人臉識別動態(tài)表情
iPhone X的原深度攝像頭系統(tǒng)可以算是ARKit的一大新武器,這套攝像頭系統(tǒng)中的傳感器可以投射人眼看不見的光,并讀取用戶的臉部3D結構,通過蘋果神經引擎(A11 Bionic Neural Engine),可以即時處理識別數(shù)據(jù),建立人臉數(shù)學模型。這一人臉識別功能用在AR上可以支持AR自拍,也可以支持蘋果發(fā)布會演示的Animoji。
蘋果在現(xiàn)場只演示了最為簡單人臉驅動emoji,目前蘋果將這套方案開放給開發(fā)者,開發(fā)者通過原深感攝像頭可以利用人臉動作來驅動AR角色,是最簡單直接的面部捕捉和實時動畫制作。通過PGC相信可以創(chuàng)造很多有趣的內容。關于這部分蘋果沒有過多的介紹,請開發(fā)者直接移步官網下載資源。
viaApple Developer雷鋒網(公眾號:雷鋒網)編譯
- QQ:61149512