Desde que o Google lançou o ARCore no ano passado, um kit de software de realidade aumentada para desenvolvedores, a empresa tem trabalhado arduamente na tecnologia para convencer os usuários de que os objetos aumentados que eles vêem existem no mundo real.
Uma das principais razões para o ceticismo é que os objetos virtuais geralmente desaparecem assim que um objeto real entra no ângulo da câmera ou pior, os objetos virtuais se sobrepõem a objetos reais aparecendo de maneira disforme na cena.
O novo recurso que o Google resolve esse problema, de acordo com a empresa, a API de profundidade do ARCore, permitirá que os desenvolvedores usem suas câmeras para medir a distância dos objetos em uma cena, bem como a distância desses objetos.
A "API Depth" pode tirar várias fotos com uma única câmera enquanto o smartphone se move pela sala e compara as imagens para estimar a distância de cada objeto a cada pixel capturado.
"Com uma única câmera em movimento, podemos oferecer uma compreensão 3D do mundo", disse Konstantine Tsotsos, engenheiro de software do Google. "Quando sua câmera entender o espaço 3D, seu conteúdo poderá colidir, saltar e ser oculto dentro do mundo real".
A estimativa da profundidade geralmente é feita por meio de sensores ToF (Time of Flight), que usam sinais de luz artificiais para medir a distância entre a câmera e o objeto. Mas o Google disse que a API Depth pode ser utilizada em smartphones sem tal sensor, mas a presença do sensor ToF facilita e muito as medições necessárias para o funcionamento pleno do novo recurso.
O uso da realidade aumentada possibilita criar ambientes completos auxiliando na tomada de decisão de compra de móveis por exemplo.
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.