聰明的人確實是可以做很多事的。
近日,一位身兼數職的斜杠青年 Cyril Diagne 設計了一個復制粘貼的工具,只要你擁有一個支持 AR 功能的智能手機,在手機上預裝這款名為 AR Cut & Paste 的工具,然后拍下你想復制的東西,便可將圖像復制粘貼進 Photoshop。
圖自:網絡
這里是視頻:
圖自:視頻截圖
正如上面幾張圖片所示,這款工具什么都可以一鍵復制,設計師們再也不用擔心素材不夠用了!不過,目前該工具的剪切延遲大約為 2.5 秒,粘貼延遲大約為 4 秒,流程還可以進一步加速。
令人期待的是,作者還給大家留了一個小驚喜:下周將會發(fā)布另一個 AI+UX 原型!
平面設計師的福音也許是設計師出身的緣故, Cyril Diagne 總是有很多出人意料的想法。
比如,他曾經研究出一種人臉涂鴉工具,借助 Tensorflow.js、FaceMesh 和 Three.js 即可在網頁瀏覽器上使用 AR 對臉部進行涂鴉。
圖自:github
還有一款可在 Instagram 個人主頁圖像上添加 3D 效果的 chrome 擴展程序,效果生成類似于 Facebook 3D 照片功能,讓 2D 照片也能呈現多角度的景象。
圖自:github
那么,這款工具又是如何實現將現實照片直接復制進 Photoshop 的呢?
據作者上傳到 github 的資料顯示,AR Cut & Paste 工具是一個 AR+ML 原型(prototype),它可以從周圍環(huán)境中拷貝固定對象,并粘貼在圖像編輯軟件中(Photoshop)。不過,這款工具目前只適用于 Photoshop 軟件,未來可能支持處理不同的輸出。
該原型作為 3 個獨立模塊運行:即移動應用、本地服務器和顯著性檢測和背景去除服務。
具體使用方法如下:
首先,你需要在手機上預裝這款工具;
npm install
其次,你需要更新一下 IP 地址,并指向你的本地配置;
3: const URL = "http://192.168.1.29:8080";
最后,顯著目標檢測和背景移除由外部服務執(zhí)行(即 BASNet 技術)。
BASNet 是什么?curl https://download.pytorch.org/models/resnet34-333f7ec4.pth -o resnet34-333f7ec4.pt
docker build -t basnet .
docker run --rm -p 8080:8080 basnet
BASNet 是一種關于邊界的顯著性檢測,其聚合了多層深度特征的網絡,它更關注整個圖像的全局對比度上,而不是局部或像素特征,所以,相比其他的顯著性檢測方法,能夠大大減少誤差。
在架構上,主要分為兩個模塊:
圖自:BASNet : Boundary-Aware Salient Object Detection 論文
預測模塊:設計成編解碼網絡,因為這種結構能同時捕獲高層次的全局上下文和低層次的細節(jié)。編碼器有一個輸入卷積層和由基本res塊組織稱的六部分。為了更進一步捕捉全局信息,在編碼器和解碼器之間加了一個橋接塊,包含三個卷積層。解碼器與編碼器基本對稱,每個階段的輸入是解碼器的前一階段的上采樣和編碼器相應階段輸出的級聯。取最后一層精度最高的圖作為預測模塊的輸出。
優(yōu)化模塊:通過殘差塊優(yōu)化粗糙的顯著圖。粗糙包括:1)模糊有噪聲的邊界;2)不均勻預測的區(qū)域概率。實際的粗糙預測圖兩種都包含。殘差優(yōu)化模塊最初被提出用來用于邊界優(yōu)化,然而,由于設計的模塊很淺,難以捕獲高級信息進行優(yōu)化。RRM采用殘差編解碼器架構,包含輸入層,編碼器,橋接層,解碼器和輸出層,編碼器和解碼器包含4個階段,每個階段只有一個卷積層。
總的損失等于每個輸出圖的損失的加權和。共有 8 個輸出,7 個來自預測模塊,1 個來自優(yōu)化模塊。
每層的損失包括三個部分:BCE loss、SSIM loss 和 IoU loss。
這樣一來,就能獲得高置信度顯著圖和清晰邊界。
然后,利用 OpenCV SIFT 找出手機在電腦屏幕上對準的位置。只需要一張手機照片和截圖,就可以得到準確的 x, y 屏幕坐標系。
這就是這款軟件的全部使用細節(jié)及技術細節(jié),感興趣的童鞋可以自己輸入代碼嘗試下。
需要注意的是,該設計的作者也表示,目前這只是一個研究原型,但根據 Diagne 視頻的回復,似乎已經有數家公司在開發(fā)類似的軟件。相信在不久的將來你可能會在應用商店看到類似的工具。
而這項設計的深遠意義則在于它巧妙地顛倒了通常的增強現實范式,不是將數字圖像投射到物理世界,而是將物理世界帶入數字世界。