鬼佬大哥大
  • / 10
  • 下載費用:30 金幣  

一種基于智能終端的3D實時眼鏡試戴方法.pdf

關 鍵 詞:
一種 基于 智能 終端 實時 眼鏡 方法
  專利查詢網所有資源均是用戶自行上傳分享,僅供網友學習交流,未經上傳用戶書面授權,請勿作他用。
摘要
申請專利號:

CN201510241953.1

申請日:

2015.05.13

公開號:

CN104898832A

公開日:

2015.09.09

當前法律狀態:

實審

有效性:

審中

法律詳情: 實質審查的生效IPC(主分類):G06F 3/01申請日:20150513|||公開
IPC分類號: G06F3/01; G06T17/00 主分類號: G06F3/01
申請人: 深圳彼愛其視覺科技有限公司
發明人: 陳洪標
地址: 518000廣東省深圳市龍崗區橫崗街道龍崗大道5008號橫崗大廈商業3層12、13、22、23、25號商鋪
優先權:
專利代理機構: 深圳市科吉華烽知識產權事務所(普通合伙)44248 代理人: 胡吉科
PDF完整版下載: PDF下載
法律狀態
申請(專利)號:

CN201510241953.1

授權公告號:

|||

法律狀態公告日:

2017.05.17|||2015.09.09

法律狀態類型:

實質審查的生效|||公開

摘要

本發明提供一種基于智能終端的3D實時眼鏡試戴方法,包括:步驟S1,加載試戴程序文件,下載眼鏡模型;步驟S2,啟動攝像頭對人臉畫面進行捕捉;步驟S3,對人臉進行實時的識別與定位;步驟S4;判斷人臉識別是否成功,若識別成功則跳轉至步驟S5,若識別失敗則返回步驟S3;步驟S5,加載眼鏡模型,生成試戴效果圖;步驟S6,接收用戶試戴其他眼鏡模型的指令,返回步驟S1;步驟S7,接收用戶的拍照指令;步驟S8,完成拍照后生成二維碼,實現試戴效果圖的下載、保存和分享功能。本發明無需特別的設備,使用方便,用戶只要通過手機、平板或電腦等智能終端即可實現的3D實時眼鏡試戴的方法,實現方式簡單有效,實時性好,成本低。

權利要求書

權利要求書
1.  一種基于智能終端的3D實時眼鏡試戴方法,其特征在于,包括以下步驟:
步驟S1,加載試戴程序文件,下載眼鏡模型;
步驟S2,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據;
步驟S3,對人臉進行實時的識別與定位;
步驟S4;判斷人臉識別是否成功,若識別成功則跳轉至步驟S5,若識別失敗則返回步驟S3;
步驟S5,加載眼鏡模型,生成3D實時眼鏡試戴的試戴效果圖,并等待用戶的指令;
步驟S6,當用戶點擊其他的眼鏡列表進行試戴時,接收用戶試戴其他眼鏡模型的指令,返回步驟S1;
步驟S7,當用戶選擇拍照時,接收用戶的拍照指令進行試戴效果圖的拍照;
步驟S8,完成拍照后生成二維碼,掃描二維碼能夠實現試戴效果圖的下載、保存和分享功能。

2.  根據權利要求1所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述智能終端為WEB平臺智能終端,所述步驟S1包括登錄WEB平臺,在產品列表中輸入試戴鏈接,點擊試戴鏈接加載試戴程序文件,下載眼鏡模型。

3.  根據權利要求1所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述智能終端為基于APP軟件的智能手機平臺,所述步驟S1包括登錄智能手機平臺,通過APP軟件直接進入人臉識別畫面,點擊人臉識別畫面上方的眼鏡示意圖進而選擇試戴眼鏡,選擇好試戴眼鏡后動態下載該試戴眼鏡所對應的眼鏡模型。

4.  根據權利要求1至3任意一項所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述步驟S2中,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據,通過人臉與人臉周圍的灰度變化關系判斷出人臉的區域,在判斷出人臉區域之后,在人臉上進行三維注冊,把三維空間坐標定位在人臉位置并以人臉中心為坐標原點,建立原始的人臉三維坐標。

5.  根據權利要求4所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述眼鏡模型的建模過程為:通過3dmax軟件對試戴眼鏡的照片進行原始建模,得到原始的眼鏡模型,然后對眼鏡模型進行貼圖烘焙處理;所述貼圖烘焙處理為對眼鏡模型各個不同的部位貼上貼圖,貼圖由試戴眼鏡的照片拍攝并且通過PS處理得到,通過貼圖與眼鏡模型之間的關系劃分眼鏡模型的UV數據,最后在3dmax軟件或maya軟件中對眼鏡模型進行打光和烘焙效果處理,并將效果烘焙到一張或者幾張貼圖上面,進而得到烘焙處理后的貼圖文件。

6.  根據權利要求4所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述步驟S3中,當人臉三維坐標產生變化時,對人臉三維坐標進行縮放、平移和旋轉,得到標準的人臉圖像,控制眼鏡模型與人臉圖像實現同步的移動與旋轉,并在人臉與攝像頭之間的距離發生變化的時候,眼鏡模型根據人臉與攝像頭之間的距離變化進行縮放變化,進而實現眼鏡模型跟隨人臉三維坐標的變化而實時進行縮放、平移和旋轉,得到標準的眼鏡模型。

7.  根據權利要求6所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述眼鏡模型在3dmax軟件中設定了自己的坐標點和位置信息,當人臉轉動時眼鏡模型便跟著人臉的轉動而轉動。

8.  根據權利要求1至3任意一項所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述步驟S5中,加載眼鏡模型,將標準的眼鏡模型的中點放置在人臉圖像的中點下方的2~4mm后進行圖像合成與疊加,生成最終的試戴效果圖,并等待用戶的指令。

9.  根據權利要求1至3任意一項所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述步驟S8中,實時檢測用戶的拍照指令,在接收到用戶的拍照指令后對試戴效果圖進行拍照并生成本地二維碼,用戶掃描本地二維碼即可在無網絡狀態下直接下載穿戴效果圖。

10.  根據權利要求9所述的基于智能終端的3D實時眼鏡試戴方法,其特征在于,所述步驟S8中,在接收到拍照指令后,對當前整個屏幕畫面進行捕捉,并將捕捉到的畫面以二進制文件的形式進行本地存儲,然后將存儲二進制文件的位置編寫進本地二維碼中。

說明書

說明書一種基于智能終端的3D實時眼鏡試戴方法
技術領域
本發明涉及一種3D眼鏡試戴方法,尤其涉及一種基于智能終端的3D實時眼鏡試戴方法。
背景技術
目前基于3D眼鏡試戴的方式有以下幾種方式:第一,通過微軟發行的Kinect體感設備和微軟發布的Kinect程序二次開發包,以紅外檢測的方式,達到人體移動的時候紅外檢測點實時的進行移動,再將虛擬的眼鏡模型與已經檢測到的紅外點進行綁定,達到位置的同步移動;第二,基于平面圖片的眼鏡虛擬試戴,通過用戶上傳自己的照片來實現眼鏡虛擬試戴,通過對平面圖形的面部識別算法來識別用戶上傳的照片中的人臉部分,從而將眼鏡圖片與之疊加;第三,基于Total Immersion SDK的眼鏡虛擬試戴,這是目前國外的一款非常流行的二次開發SDK,通過國外已經開發并封裝好的SDK進行項目的二次技術開發,開發效果和性能較好,但是加入開發的成本高昂,而且每一個項目,每一個平臺都需要向法國總部支付費用,而且開發限制非常多,不能連接數據庫、不能隨意讓客戶進行修改等。
以上幾種方式均存在各種各樣的缺陷:第一,基于Kinect體感設備的眼鏡虛擬試戴缺陷包括:需要特定的Kinect體感硬件設備,費用高昂;識別過程需要先通過人體識別從而進行面部識別;識別過程容易收到干擾,識別不穩定。第二,基于平面圖片的眼鏡虛擬試戴缺陷包括:試戴過程過于死板和僵化,沒有實時的互動性;通過用戶上傳照片的方式進行試戴,無法同一時刻體驗到戴上眼鏡的不同角度試戴,操作麻煩不簡便。第三,基于Total Immersion SDK的眼鏡虛擬試戴缺陷包括:基于原廠家的二次開發難度大,不方便,而且成本高;技術限制多,如無法連接數據庫,無法實時修改開發內容;二次開發產品帶有水印,去水印費用高,且每年都需要繳費,不利于長期發展。
并且,目前市面上的3D眼鏡試戴需要專門的設備,使用者需要去到有專門設備的實體店進行體驗,使用起來不夠方便,成本高。
發明內容
本發明所要解決的技術問題是提供一種無需特別的設備,使用方便,用戶只要通過手機、平板或電腦等智能終端即可實現的3D實時眼鏡試戴的方法,實現方式簡單有效,成本低。
對此,本發明提供一種基于智能終端的3D實時眼鏡試戴方法,包括以下步驟:
步驟S1,加載試戴程序文件,下載眼鏡模型;
步驟S2,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據;
步驟S3,對人臉進行實時的識別與定位;
步驟S4;判斷人臉識別是否成功,若識別成功則跳轉至步驟S5,若識別失敗則返回步驟S3;
步驟S5,加載眼鏡模型,生成3D實時眼鏡試戴的試戴效果圖,并等待用戶的指令;
步驟S6,當用戶點擊其他的眼鏡列表進行試戴時,接收用戶試戴其他眼鏡模型的指令,返回步驟S1;
步驟S7,當用戶選擇拍照時,接收用戶的拍照指令進行試戴效果圖的拍照;
步驟S8,完成拍照后生成二維碼,掃描二維碼能夠實現試戴效果圖的下載、保存和分享功能。
本發明的進一步改進在于,所述智能終端為WEB平臺智能終端,所述步驟S1包括登錄WEB平臺,在產品列表中輸入試戴鏈接,點擊試戴鏈接加載試戴程序文件,下載眼鏡模型。
本發明的進一步改進在于,所述智能終端為基于APP軟件的智能手機平臺,所述步驟S1包括登錄智能手機平臺,通過APP軟件直接進入人臉識別畫面,點擊人臉識別畫面上方的眼鏡示意圖進而選擇試戴眼鏡,選擇好試戴眼鏡后動態下載該試戴眼鏡所對應的眼鏡模型。
本發明的進一步改進在于,所述步驟S2中,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據,通過人臉與人臉周圍的灰度變化關系判斷出人臉的區域,在判斷出人臉區域之后,在人臉上進行三維注冊,把三維空間坐標定位在人臉位置并以人臉中心為坐標原點,建立原始的人臉三維坐標。
本發明的進一步改進在于,所述眼鏡模型的建模過程為:通過3dmax軟件對試戴 眼鏡的照片進行原始建模,得到原始的眼鏡模型,然后對眼鏡模型進行貼圖烘焙處理;所述貼圖烘焙處理為對眼鏡模型各個不同的部位貼上貼圖,貼圖由試戴眼鏡的照片拍攝并且通過PS處理得到,通過貼圖與眼鏡模型之間的關系劃分眼鏡模型的UV數據,最后在3dmax軟件或maya軟件中對眼鏡模型進行打光和烘焙效果處理,并將效果烘焙到一張或者幾張貼圖上面,進而得到烘焙處理后的貼圖文件。
本發明的進一步改進在于,所述步驟S3中,當人臉三維坐標產生變化時,對人臉三維坐標進行縮放、平移和旋轉,得到標準的人臉圖像,控制眼鏡模型與人臉圖像實現同步的移動與旋轉,并在人臉與攝像頭之間的距離發生變化的時候,眼鏡模型根據人臉與攝像頭之間的距離變化進行縮放變化,進而實現眼鏡模型跟隨人臉三維坐標的變化而實時進行縮放、平移和旋轉,得到標準的眼鏡模型。
本發明的進一步改進在于,所述眼鏡模型在3dmax軟件中設定了自己的坐標點和位置信息,當人臉轉動時眼鏡模型便跟著人臉的轉動而轉動。
本發明的進一步改進在于,所述步驟S5中,加載眼鏡模型,將標準的眼鏡模型的中點放置在人臉圖像的中點下方的2~4mm后進行圖像合成與疊加,生成最終的試戴效果圖,并等待用戶的指令。
本發明的進一步改進在于,所述步驟S8中,實時檢測用戶的拍照指令,在接收到用戶的拍照指令后對試戴效果圖進行拍照并生成本地二維碼,用戶掃描本地二維碼即可在無網絡狀態下直接下載穿戴效果圖。
本發明的進一步改進在于,所述步驟S8中,在接收到拍照指令后,對當前整個屏幕畫面進行捕捉,并將捕捉到的畫面以二進制文件的形式進行本地存儲,然后將存儲二進制文件的位置編寫進本地二維碼中。
與現有技術相比,本發明的有益效果在于:用戶只要通過手機、平板或電腦等智能終端即可實現虛擬的3D實時眼鏡試戴,其實現方式簡單有效,無需特別的設備,使用起來快速便捷,實時性好,成本低;在人臉轉動的時候,即使轉動的角度小于3°,眼鏡模型也能夠實時跟隨,試戴效果圖真實且連貫;在此基礎上,穿戴效果還可以進行拍照互動,體驗者在拍照留念后會自動生成本體二維碼,在無網絡的條件下,也能夠直接掃描本體二維碼以實現試戴效果圖的下載和保存,能夠進一步實現分享試戴效果圖的分享等功能。
附圖說明
圖1是本發明一種實施例的工作流程示意圖。
具體實施方式
下面結合附圖,對本發明的較優的實施例作進一步的詳細說明。
如圖1所示,本例提供一種基于智能終端的3D實時眼鏡試戴方法,包括以下步驟:
步驟S1,加載試戴程序文件,下載眼鏡模型;
步驟S2,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據;
步驟S3,對人臉進行實時的識別與定位;
步驟S4;判斷人臉識別是否成功,若識別成功則跳轉至步驟S5,若識別失敗則返回步驟S3;
步驟S5,加載眼鏡模型,生成3D實時眼鏡試戴的試戴效果圖,并等待用戶的指令;
步驟S6,當用戶點擊其他的眼鏡列表進行試戴時,接收用戶試戴其他眼鏡模型的指令,返回步驟S1;
步驟S7,當用戶選擇拍照時,接收用戶的拍照指令進行試戴效果圖的拍照;
步驟S8,完成拍照后生成二維碼,掃描二維碼能夠實現試戴效果圖的下載、保存和分享功能。
當本例所述智能終端為WEB平臺智能終端時,所述步驟S1包括登錄WEB平臺,在產品列表中輸入試戴鏈接,點擊試戴鏈接加載試戴程序文件,下載眼鏡模型。
當本例所述智能終端為基于APP軟件的智能手機平臺時,所述步驟S1包括登錄智能手機平臺,通過APP軟件直接進入人臉識別畫面,點擊人臉識別畫面上方的眼鏡示意圖進而選擇試戴眼鏡,選擇好試戴眼鏡后動態下載該試戴眼鏡所對應的眼鏡模型。
本例所述步驟S2中,通過智能終端啟動攝像頭對人臉畫面進行捕捉,采集攝像頭區域的灰度數據,通過人臉與人臉周圍的灰度變化關系判斷出人臉的區域,在判斷出人臉區域之后,在人臉上進行三維注冊,把三維空間坐標定位在人臉位置并以人臉中心為坐標原點,建立原始的人臉三維坐標。
本例通過智能終端啟動攝像頭對人臉進行捕捉,對人臉進行灰度采集與坐標確定,即以人臉的中心為中點在人臉上建立起三維空間的人臉三維坐標,所述建立起三維空間的人臉三維坐標的過程為:通過攝像頭對人臉的畫面進行捕捉,通過人臉與人臉周 圍的灰度變化關系判斷出人臉的區域,因為人臉在攝像頭的捕捉下即使人是靜止不動的,人臉也會有極輕微的轉動,那么,人臉周圍區域也會有灰度變化,依此原理判斷出人臉區域之后,我們在人臉上進行人臉三維注冊,并把空間坐標定位在人臉位置,而眼鏡模型位于人臉三維坐標的在建模軟件中所設定的位置中,該眼鏡模型擁有自己的坐標點,當人臉轉動時眼鏡模型便跟著人臉進行轉動。
現有技術中,當人臉轉動角度過小時,比如轉動小于3°時,虛擬的3D眼鏡試戴是沒辦法實時跟隨的,導致試戴效果不好;而本例將人臉與人臉邊緣環境進行灰度計算,得到人臉的區域,將獲得的人臉區域作為一個新的坐標軸建立XYZ軸,這個XYZ軸便是注冊在人臉上的三維標記,進而得到人臉三維坐標,當頭部有轉動的時候人臉三維坐標會跟著轉動,即使人臉在轉動角度為小于3°以下的小角度時,虛擬的眼鏡模型也能夠實時跟隨人臉三維坐標一起轉動,進而使得虛擬的眼鏡試戴能夠有真的戴在人臉上一般神奇和順暢的效果,哪怕是在3°以下的小角度轉動的時候跟蹤穩定貼合度也非常高。
然后再將眼鏡模型放置在虛擬的三維坐標的中點,讓眼鏡模型與人臉三維坐標一起移動與旋轉,當人臉與攝像頭的距離發生變化的時候,其眼鏡模型與人臉坐標也一起根據透視的原理進行縮放變化,這整個過程都是通過虛擬圖像與現實場景疊加的方式進行,在這個變換的過程中,用戶可以隨時進行合成圖像和拍照等功能。
本例所述眼鏡模型的建模過程為:通過3dmax軟件對試戴眼鏡的照片進行原始建模,得到原始的眼鏡模型,然后對眼鏡模型進行貼圖烘焙處理;所述貼圖烘焙處理為對眼鏡模型各個不同的部位貼上貼圖,貼圖由試戴眼鏡的照片拍攝并且通過PS處理得到,通過貼圖與眼鏡模型之間的關系劃分眼鏡模型的UV數據,最后在3dmax軟件或maya軟件中對眼鏡模型進行打光和烘焙效果處理,并將效果烘焙到一張或者幾張貼圖上面,進而得到烘焙處理后的貼圖文件,以便得到更加真實的眼鏡模型。
本例所述步驟S3中,當人臉三維坐標產生變化時,對人臉三維坐標進行縮放、平移和旋轉,得到標準的人臉圖像,控制眼鏡模型與人臉圖像實現同步的移動與旋轉,并在人臉與攝像頭之間的距離發生變化的時候,眼鏡模型根據人臉與攝像頭之間的距離變化進行縮放變化,進而實現眼鏡模型跟隨人臉三維坐標的變化而實時進行縮放、平移和旋轉,得到標準的眼鏡模型。所述眼鏡模型在3dmax軟件中設定了自己的坐標點和位置信息,當人臉轉動時眼鏡模型便跟著人臉的轉動而轉動。
本例所述步驟S5中,加載眼鏡模型,將標準的眼鏡模型的中點放置在人臉圖像的中點下方的2~4mm后進行圖像合成與疊加,生成最終的試戴效果圖,并等待用戶的指令。
本例所述縮放是指原始的人臉三維坐標與原始的眼鏡模型的縮放,即指的是對原始的人臉三維坐標或人臉圖像以及原始的眼鏡模型的縮放,需要進行人臉與試戴眼鏡按照真實比例演示虛擬穿戴,就必須要進行圖像的縮放。
這種圖像的縮放的解決方案有三種:第一種是縮放人臉三維坐標以適應眼鏡模型的大小;第二種是縮放眼鏡模型以適應人臉三維坐標的大小;第三種是將原始的人臉三維坐標與原始的眼鏡模型按照事先約定好的“協議”同時縮放人臉三維坐標和眼鏡模型,本例使用的是第三種方案,它將更有利于用制作好的標準的人臉圖像去適應大量不同的鏡架庫中的標準的眼鏡模型;本例應用第三種方案,相當于對眼鏡模型和人臉三維坐標提出了一種相互之間都遵循的協議,或者說是一種預先設置好的標準,來達到原始的人臉三維坐標與原始的眼鏡模型在縮放這點上的“默契”。
本例所述的縮放采用事先約定好的縮放倍數,其內容為:設定原始的人臉三維坐標中的目標物上的兩個點的實際距離為2x毫米,這兩個點在標準的人臉圖像中的像素差約定為3x,那么當這兩點在原始的人臉三維坐標中的像素差為h,則其從原始的人臉三維坐標到標準的人臉圖像的縮放比例為3x/h,所述標準的人臉圖像也稱標準圖像。
該縮放協議的正確性的推導如下:假設真實世界中有兩點間的距離為2x毫米,那么在標準的人臉圖像中的像素差為3x;原始的人臉三維坐標中這兩點的像素差為h1,按照協議得到縮放比例則為3x/h1。另外兩點間的距離為2y毫米,那么在標準的人臉圖像中的像素差為3y;原始的人臉三維坐標中這兩點的像素差為h2按照協議得到縮放比例為3y/h2。真實世界中距離比=2y:2x=(h2*3y/h2):(h1*3x/h1)=3y:3x=標準的人臉圖像中的像素差比。本例所述的x、y和h均為自然數。
本例所述步驟S3和步驟S4中,所述平移的位移量為:ΔX=200-((x1+x2)/2)*zoomface=200-((x1+x2)/2)*(3*PD/(2*(y2-y1)2+(x2-x1)2));]]>ΔY=250-((y1+y2)/2)*zoomface=250-((y1+y2)/2)*(3*PD/(2*(y2-y1)2+(x2-x1)2));]]>其中,ΔX是人臉圖像和眼鏡模型所需要平移的x軸數據,ΔY人臉圖像和眼鏡模型所需 要平移的y軸數據,x1為人臉圖像的中心的x軸數據,x2為眼鏡模型的中心的x軸數據,y1為人臉圖像的中心的y軸數據,y2為眼鏡模型的中心的y軸數據,zoomface是固定的偏移參數,PD是矯正參數,所述PD為0.5~1,所述zoomface=3*PD/(2*(y2-y1)2+(x2-x1)2).]]>經證明,所述PD最佳為0.85。
本例由于在眼鏡模型與人臉圖像之間經過了上述標準化算法處理,因此眼鏡模型與人臉圖像之間的跟蹤識別便特別準確順暢;所述眼鏡模型通過3dmax軟件建模得到,每一個眼鏡模型都是超過10萬個面的高精模型。
本例所述的平移采用上述的平移算法進而得到平移的位移量,即針對人臉三維坐標和眼鏡模型分別計算出相對位移量,然后根據相對位移量分別對人臉三維坐標和眼鏡模型進行平移,使得眼鏡模型到達人臉三維坐標的合適位置。
本例所述的旋轉,主要是根據采集人臉的灰度數據變換進而判斷人臉的角度變化,進而控制眼鏡模型實現實時的角度跟隨,使得眼鏡模型就像是貼在標準的人臉圖像上一樣,能夠根據使用者的位置和角度變換,進而實現虛擬試戴效果的實時跟隨。
本例所述步驟S8中,實時檢測用戶的拍照指令,在接收到用戶的拍照指令后對試戴效果圖進行拍照并生成本地二維碼,用戶掃描本地二維碼即可在無網絡狀態下直接下載穿戴效果圖。所述步驟S8中,在接收到拍照指令后,對當前整個屏幕畫面進行捕捉,并將捕捉到的畫面以二進制文件的形式進行本地存儲,然后將存儲二進制文件的位置編寫進本地二維碼中。
在步驟S8中,用戶可以對當前整個畫面進行捕捉,并將其以文件的形式進行保存;在圖片文件保存之后,會出現一個二維碼圖片,使用者用手機掃描二維碼便可獲取圖片進行下一步分享操作;與現有技術不同的是:我們的拍照功能會將整個屏幕截圖文件進行儲存,存儲的格式是二進制文件,存儲的方式是本地存儲,然后將儲存的位置編寫進二維碼中,用戶在通過手機進行二維碼掃描即可直接訪問二進制文件的存儲位置,無需網絡條件下即可進行圖片的保存,保存的圖片文件沒有經過壓縮,不會產生失真,并且還能夠分享至朋友圈。
所述本地二維碼是指存儲位置位于本地智能終端、本地存儲器或本地服務器的二維碼,該二維碼會以二進制文件的格式對進行試戴效果圖存儲,不經過壓縮和處理,因此,試戴效果圖不會產生失真,即使在無網絡的情況下,也能夠方便的實現下載和 保存功能。
以上內容是結合具體的優選實施方式對本發明所作的進一步詳細說明,不能認定本發明的具體實施只局限于這些說明。對于本發明所屬技術領域的普通技術人員來說,在不脫離本發明構思的前提下,還可以做出若干簡單推演或替換,都應當視為屬于本發明的保護范圍。

關于本文
本文標題:一種基于智能終端的3D實時眼鏡試戴方法.pdf
鏈接地址:http://www.wwszu.club/p-6369398.html
關于我們 - 網站聲明 - 網站地圖 - 資源地圖 - 友情鏈接 - 網站客服 - 聯系我們

[email protected] 2017-2018 zhuanlichaxun.net網站版權所有
經營許可證編號:粵ICP備17046363號-1 
 


收起
展開
鬼佬大哥大