Google 首批 AI 相機 Clips 已售罄,它會成為一名合格的「攝影師」嗎?

讓 AI 幫你按快門的 Google Clips 到底好不好?這里有一份中肯的產品體驗報告
利用 Google Clips,Google 在消費級 AI 相機這一新品類邁出了重要的一步。
上月底,Google 公布其旗下首款人工智能相機 Clips 接受預訂的消息,而從預售當天開始不到兩天的時間內,Google 官網就已經顯示首批產品已「售罄」。正如 Google 當時所承諾的,首批貨物從 2 月 26 日~ 3 月 5 日期間(也就是最近這幾天)陸續到達訂購用戶的手中。

Google Clips 在去年 10 月份的 Google 秋季發布會首次亮相,正式售價為 249 美元(折合人民幣 1600 元)。與普通的相機相比,Google Clips 最大的不同之處在于它是一款真正意義上由 AI「主控」的智能相機,「按快門」這件事情可完全交給相機本身。據了解,為了將 Google Clips 訓練成更為合格的「攝影師」,Google 還請來眾多的 Clips 抓拍算法的訓練師,包括負責紀錄片、高端雜志等的專業攝影師。
作為科技新品的嘗鮮用戶,許多國外科技媒體也已經率先對 Google Clips 做了全方位的測評并相繼發布體驗報告。
外觀設計簡約、小巧方便攜帶
Google Clips 配置了一個 1200 萬像素、130 度的廣角鏡頭,鏡頭旁邊是 3 個 LED 燈,亮起時表示相機正處于工作狀態。底部有一個供數據線充電的 USB 接口,全機上下僅有快門這一個物理按鈕。

另外,Google Clips 重約 60 克,方形外殼邊緣套有一圈硅膠外殼,套裝內還包含一個用于固定夾盒,可作為支架或者的將相機固定在衣領、書架等位置使用或隨身攜帶。
用手機為設備配網、取景
Google Clips 內存為 16 GB,沒有顯示屏幕,在使用之前需要通過手機下載應用并進行配網等方面的設置。而手機也可以作為取景器,幫助 Google Clips 調整合適的角度。同時,相機能將所拍攝的短片傳輸至手機,方便用戶對圖像進行查看、編輯。

Clips 可以跟 Google 的 Pixel 手機配合使用,也適配于三星S7/8,以及 iPhone 6 以上等機型。
負責捕捉精彩瞬間,但也不代表時刻在線
所有設置準備就緒之后,就可以開始使用 Google Clips 了。放置在你想捕捉圖像的位置前(也可以用三腳架),扭轉鏡頭便可打開相機。

經過訓練,Google Clips 已經對人、寵物等有靈敏的感知能力,也擅長于捕捉微笑等動態鏡頭。在發生一些有趣的事情時,它會以每秒 15 幀的速度拍攝一段長達 7 秒鐘的短片。因為沒有麥克風,整個過程并不錄制聲音。
在滿電狀態的下,Google Clips 從打開進入工作狀態開始大約續航 3 個小時。其中一位外媒科技記者表示,他曾試過幾次讓相機持續錄制 3-4 小時,即便收集了 70 多個短片,也僅用了設備 8% 的空間。
該記者進一步表示,導致這一結果的重要原因是,經過特定的設置后,Google Clips 一旦將短片保存在手機中,便會自動刪除設備中對應的資料,這樣一來便釋放了許多空間以便存儲新的內容。
值得一提的是,雖然捕捉精彩瞬間是 Google Clips 重要使命,但并不表示它永遠在線。如果 AI 在一段時間(官方沒有給出具體的時長)內沒發生任何有趣的事情,相機便會自動關閉。
用手機進行動圖、圖像的編輯
手機充當相機的取景框,同時在圖像錄制的過程中,用戶也可以通過手機上的應用對內容進行實時預覽,了解成像的效果以確認相機是否擺設在合適的位置和角度。
AI 的主動拍攝相當于為你進行了內容上的一輪篩選,Google Clips 拍攝的內容實質上是由一系列靜態圖片拼接在一起的無聲短片,類似 Apple 的 Live Photos 或 Google Motion Photos。通過應用自帶的編輯工具,用戶可隨意拖動截取自己需要的部分,轉換成 GIF、MP4 或存儲為 live 照片,或者單獨導出其中一幀作為圖像。

針對拍攝、剪輯等過程,Google 官方曾強調,處理都在本地進行,而不是在云端。另外數據也是加密過的,他人即使撿到設備也不能查看里面的圖片。這一切設計都從保護用戶隱私出發。
至于這名「AI 攝影師」拍出來的圖像能否讓人滿意
至于 Google Clips 是不是一名合格的「AI 攝影師」。因 AI 表現的隨機性,各家媒體的評價并非一致。總的來說,Google Clips 作為一款人工智能產品,十分契合 Google AI 先行的思想,形式也很新穎,但也意味著它需要更多的持續訓練才能更好提供近似「人工」的服務。
首先,續航、并不持續在線的特性決定 Google Clips 并不能充當安全攝像頭,另外即便小巧便攜,Google Clips 也不能代替運動相機。有記者表示,在運動狀態下,相機捕捉到的畫面是模糊、充滿顆粒感的,所以建議不要把相機夾在行駛的自動車或者跳傘上使用。

其次,Google Clips 的鏡頭決定它適合拍攝 3 到 8 英尺距離以內的對象,為避免拍出來的動物(人)過小,用戶需要確保相機被放置在合理的位置。雖然該相機擁有廣角鏡頭,捕捉到的畫面范圍比較廣也易于抓取精彩瞬間,但也難以避免對被拍攝在相框邊緣的人像造成一定的扭曲。
作為重中之重的 AI 部分,各方就各持所見了。有記者認為,這樣「解放雙手」的使用方式給人省下了不少空閑時間,即便在剛開始時,該記者還是習慣性的自己親自按快門,到后面就逐漸的放任 AI 來執行這項任務,也算是經歷了一段與 AI 之間相互建立「信任」的過程。
當然也有吐槽的,「當我看到小狗湊上來在相機周圍嗅探的時候,我覺得應該能立馬得到這一精彩瞬間了,可后在來查看的時候,十分失望的發現它(相機)并沒捕捉到那一刻,之后我嘗試手動對焦小狗并按下快門告訴相機我更多的想拍這只小狗可愛的一面,可它后來的許多鏡頭還是給了小狗的小屁屁。」一名記者無奈的表示。
大概是 AI 有更多的不可預測性,也有記者表示 Google Clips 捕捉到的寵物動態鏡頭讓他覺得挺滿意。

特別的,將設備連接到你的 Google 相冊賬戶,系統便能從中提取信息以「熟悉」里面的人和寵物的臉。
不管怎么說,利用 Google Clips,Google 在消費級 AI 相機這一新品類邁出了重要的一步。與所有 AI 模型都需要接受大量數據訓練一樣,Google Clips 也需要從大量的機器學習中「成長」起來。而該不該為這份人工智能事業掏錢,就見仁見智了。