El último teléfono inteligente de Google demuestra cómo la inteligencia artificial y el software pueden mejorar las capacidades de una cámara, uno de los puntos de venta más importantes de cualquier dispositivo móvil.
El Pixel 4, el último participante en una línea telefónica definida por sus cámaras, promociona una capacidad mejorada para hacer zoom como su mayor actualización. Pero la compañía de Alphabet Inc. no lo está haciendo como lo han hecho Samsung Electronics Co., Huawei Technologies Co. o Apple Inc.: en lugar de agregar varias cámaras con ópticas complicadas, Google ha optado por una sola lente adicional que se basa en la inteligencia artificial y el procesamiento para llenar el vacío de calidad.
En lugar del habitual aluvión de especificaciones, Google prefiere hablar sobre una “cámara definida por software”, dijo Isaac Reynolds, gerente de producto del equipo Pixel de la compañía, en una entrevista. Argumentó que el dispositivo debe ser juzgado por el producto final, que según Google es un zoom digital 3x que coincide con la calidad del zoom óptico de los conjuntos de lentes múltiples. El Pixel 4 tiene dos lentes con un factor de aumento entre ellas menor que 2x, y la tecnología que extiende ese rango útil consiste casi completamente en software.
El éxito de la cámara Pixel es fundamental para las ambiciones más amplias de Google: impulsa la adopción de Google Photos, alimenta las bibliotecas de imágenes de Google y ayuda a crear mejores experiencias con aplicaciones de realidad aumentada, como las nuevas instrucciones para caminar en pantalla de este año en Google Maps.
Super Res Zoom, una función que Google lanzó el año pasado, utiliza los ligeros movimientos de la mano de un fotógrafo al capturar una toma –generalmente un obstáculo para crear imágenes nítidas–, como una ventaja para crear una imagen que sea más nítida de lo que sería de otra manera. La cámara dispara una ráfaga de tomas rápidas, cada una desde una posición ligeramente diferente debido al movimiento de la cámara, luego las combina en una sola imagen. Es un truco algorítmico que le permite a Google recopilar más información del hardware de imágenes, y potencialmente también una protección contra cualquier rival que intente copiar a Google, ya que no podrán simplemente comprar los mismos sensores de imágenes y replicar los resultados.
Para aumentar su dependencia de las tareas de inteligencia artificial y aprendizaje automático, Google ha diseñado y agregado su propio chip Pixel Neural Core para la línea Pixel 4. Acelera la velocidad de aprendizaje automático del dispositivo y, de nuevo, pretende diferenciar la oferta de Google de otros teléfonos inteligentes Android en el mercado con un procesador Qualcomm Snapdragon en su núcleo.
La otra herramienta importante en el kit de inteligencia artificial de Google se llama RAISR, o Superresolución de imagen rápida y precisa, la cual entrena la IA en vastas bibliotecas de imágenes para que pueda mejorar de manera más efectiva la resolución de las imágenes. Se enseña al sistema a reconocer patrones, bordes y características visuales particulares, de modo que cuando los detecta en tomas de baja calidad, sabe cómo mejorarlos.
Esa es la clave para crear zoom con “una degradación de calidad mucho más suave”, como lo expresó Reynolds. Con más de 1.000 millones de usuarios de Google Photos, la compañía estadounidense tiene un suministro masivo de imágenes para entrenar su software.
Entre las otras funciones que ofrece Google con el Pixel 4 está la capacidad de identificar los rostros de las personas que un usuario fotografía con mayor frecuencia y garantizar que tengan prioridad al capturar nuevas instantáneas, asegurándose de que la cámara se enfoque en ellos y que sus ojos no estén cerrados, por ejemplo. Ese uso de la tecnología de software ha definido los dispositivos de Google hasta la fecha y también es evidente en la forma en que Facebook Inc., Amazon.com Inc. y Apple apuntan a emplear sus propios sistemas de IA.