Otonom sürüş ve robotik teknolojisinde uzun süredir devam eden ‘karar verme gecikmesi’ sorunu, donanım düzeyinde bir inovasyonla çözüldü. Çin, İngiltere, ABD ve Suudi Arabistan’dan bilim insanlarının yürüttüğü ortak çalışma, makinelerin görsel verileri işleme süresini insan algısı seviyesinin üzerine taşıdı.
İNSAN GÖRÜŞÜNDEN İLHAM ALAN ‘FİLTRELE VE İŞLE’ MODELİ
Geleneksel otonom sistemler, yüksek çözünürlüklü görüntüleri kare kare analiz ederek zaman kaybederken; yeni geliştirilen sistem insan gözünün hareket algılama yeteneğini taklit ediyor. Sistemin merkezinde yer alan iki boyutlu sinaptik transistör dizisi, alakasız görsel verileri ayıklayarak yalnızca önemli hareketlere odaklanıyor. Bu ‘filtrele-sonra-işle’ yaklaşımı, görüntüdeki değişiklikleri sadece 100 mikrosaniyede algılayabiliyor.
FREN MESAFESİNDE 4,5 METRELİK KRİTİK KAZANIM
Saatte 80 kilometre hızla seyreden standart bir otonom aracın engele tepki vermesi yaklaşık 0,5 saniye sürerken, insan beyni bu tepkiyi 0,15 saniyede veriyor. Yeni sistem, makine işleme süresindeki boşluğu kapatarak tepki süresini 0,2 saniye iyileştiriyor. Beihang Üniversitesi'nden Doç. Gao Shuo, "Bir trafik kazasında bu 4-5 metrelik fark, çarpışma ile kıl payı kurtuluş arasındaki çizgiyi belirler. Yaklaşımımız, doğruluğu korurken yüzde 400'lük bir hızlanma sağlıyor" açıklamasında bulundu.
DRON VE ROBOTİK SİSTEMLERDE VERİMLİLİK ARTIŞI
Teknolojinin uygulama alanı sadece otomobillerle sınırlı değil:
ENDÜSTRİYEL ENTEGRASYON VE TİCARİ DEĞER
Mevcut kamera sistemlerini tamamen değiştirmek yerine, bir ‘donanım eklentisi’ olarak tasarlanan sistem, mühendislik uygulamaları için yüksek pratik değer taşıyor. Gao Shuo, projenin otomotiv ve dron üreticileriyle derinlemesine bir iş birliğini ilerleteceğini belirterek; "Otonom sistemleri bu donanım seviyesinde refleksle donatarak güvenliği temelden artırmayı hedefliyoruz" dedi.