視覺應(yīng)用技術(shù)的展示是今年西南偏南的重要議題。而除了AR、VR、8k等技術(shù)的體驗之外,為機器“看見萬物”而鉆研的公司也備受關(guān)注。眼擎科技的CEO朱繼志在西南偏南的舞臺上分享了他創(chuàng)造這枚中國“慧眼”的經(jīng)歷心得,以及“AI最后一英里”的“中國經(jīng)驗”。
**給機器一雙“慧眼”**
2016年5月,美國一輛電動車特斯拉Model S的車主,與一輛橫穿路口的卡車相撞。經(jīng)過調(diào)查,特斯拉公司認為出事車輛處于自動駕駛狀態(tài),至于為什么沒能在天氣良好的情況下識別出卡車而減速或者剎車,電動車公司認為在明亮的天空背景下,自動駕駛系統(tǒng)皆無法分辨出開車的白色邊緣。
特斯拉的不幸事故暴露了一個自動駕駛領(lǐng)域的難題,即機器運算能力很高,但是其“視力”和人類相比還差的很遠。而這個難題不僅局限于汽車,是目前所有機器和智能設(shè)備的“通病”。
自2014年成立以來,眼擎科技就專注在視覺成像芯片的研發(fā)上,團隊的目標是讓機器能更清晰的“看到”并感知這個世界。智能手機用戶應(yīng)該都有過這種經(jīng)歷,當拍攝對象處于逆光時,手機屏幕上經(jīng)常出現(xiàn)的是一片昏暗不清的畫面,因為相對于人眼的高分辨率和動態(tài)范圍,當世最好的圖像傳感器也望塵莫及,這也是為什么像自動駕駛、無人機以及其他使用光學(xué)傳感器作為導(dǎo)航的應(yīng)用都需要避免逆光、強光、弱光等光照環(huán)境。
眼擎科技的視覺芯片要解決的最核心問題,就是要讓機器能在各種復(fù)雜和極端的光照環(huán)境下,排除光線干擾,生成AI系統(tǒng)能夠使用的可靠圖像。眼擎科技研發(fā)的成像引擎,能夠模擬人類眼球?qū)饩的反應(yīng),以超高寬容度處理光比較大的圖像。
在今年年初的極客公園創(chuàng)新大會上,眼擎科技做了這樣一個演示:將會場燈光全部關(guān)閉,僅留臺上的兩個屏幕做參考,當觀眾已經(jīng)看不到兩個舉著色卡的模特上臺時,眼擎科技的機器不僅能看清模特,而且能準確識別出色卡上的顏色。眼擎用這個測試證明,其新發(fā)布的「eyemore X42芯片」在弱光環(huán)境下的識別能力,已經(jīng)超過人類肉眼極限。
**從人眼到機器眼**
1878年喬治·伊士曼成功研發(fā)出早期的攝影膠片,同時也讓“柯達”成為照相的代名詞;一百年后,數(shù)碼相機誕生,在商用不到二十年的時間里,迅速取代膠片成為人們保存影像的首選介質(zhì)。
從膠片到比特,雖然用來存儲影像的介質(zhì)發(fā)生了變化,但有一點不變的是,存儲在不同介質(zhì)上的圖像,最終的使用者都是人類。而現(xiàn)在,事情發(fā)生了變化。
根據(jù)BI Intelligence預(yù)測,2020年全球聯(lián)網(wǎng)設(shè)備數(shù)量將達到340億,其中物聯(lián)網(wǎng)設(shè)備數(shù)量達到240億,智能手機、平板電腦、智能手表等傳統(tǒng)移動互聯(lián)網(wǎng)設(shè)備數(shù)量僅為100億。對于海量的物聯(lián)網(wǎng)設(shè)備來說,讓它們感知自己所處的環(huán)境,視覺依然是最重要的方向。而機器人“看懂”世界的方式,和人類不盡相同。這就代表我們此前用來處理圖像的手段和硬件,已經(jīng)不能滿足新時代海量機器的訴求。
在人類視覺時期,我們關(guān)注的是如何增加更多像素,讓用戶看起來更清晰;在機器時代,我們需要做的是如何讓圖像能更好的被智能設(shè)備辨認出來。為了能讓機器“看”的更清晰,我們不僅需要改變傳統(tǒng)的圖像信號處理方案,而且需要給圖片處理設(shè)備提供足夠的算力、優(yōu)秀的算法和數(shù)據(jù)。最后,我們關(guān)注的焦點應(yīng)該是像素的質(zhì)量,而非數(shù)量。
這也是為什么眼擎科技認為,智能圖像處理芯片會成為一個必然趨勢,并投身其中。目前,眼擎科技的視覺芯片已經(jīng)獲得國內(nèi)多家人工智能和無人駕駛公司的認可。
在不太遙遠的未來,一個智能機器眼中的世界會是什么樣子的,答案的可能就隱藏在像眼擎科技的視覺芯片之中。