Sokáig úgy tűnt, hogy a Google fogja elhozni a széles körben használható okosszemüvegeket, hiszen a vállalat már 2013-ban előállt a Google Glass első verziójával, ám a korai kezdés ellenére valahol útközben zátonyra futottak a fejlesztések, és tavaly elkaszálták az egész termékvonalat, valamint a 2022-ben demózott, élő fordításokat végző Project Irisből sem lett semmi.
Most azonban a mesterséges intelligenciás szolgáltatások apropóján a Google váratlanul leporolta az okosszemüveges koncepciót, rögtön meg is mutatva, hogy most éppen milyen szerepet szán egy ilyen eszköznek.
Tegnap este zajlott le az I/O 2024 fejlesztői konferencia ünnepélyes megnyitója, amely főként az AI-jal kapcsolatos bejelentéseket hozott, köztük az alábbi videós bemutatóval a Project Astráról. Ez gyakorlatilag a Google víziója a mesterséges intelligenciás okos asszisztensek jövőjéről, vagyis arról, hogy a későbbiek során miként segíthetik ezek a szolgáltatások a mindennapjainkat.
A keresőóriás elképzelésében pedig az algoritmusok az okostelefonunkon vagy akár egy szemüvegen keresztül is a kezünk alá dolgozhatnak: az alábbi film főszereplője 1:30 környékén egy okosszemüvegre vált a Pixel mobiljáról, amely a lencsére kivetített pont pozicionálásával elemzi a beépített kamerája által látottakat.
A videóból sajnos nem derül ki, hogy a Google pontosan milyen szemüveget használt, és a demó leírásában is csak annyi szerepel, hogy egy prototípust láthatunk az anyagban. A korábbi, elkaszált projektek fényében nem vennénk mérget rá, hogy valaha is lesz ebből megvásárolható termék, de kizárni sem lehet a dolgot.
Annál is inkább, mivel a tech világ most lázasan igyekszik kitalálni, milyen új hardvereket lehetne rásózni a vásárlókra a mesterséges intelligenciás lázat meglovagolva. Ékes példái ennek a Humane okoskitűzője, az Ai Pin és az okostelefonok babárjaira törő Rabbit r1, ám az első tesztelői benyomások alapján egyik sem fog forradalmat kirobbantani.