Krypton Solid

Pixel 6 y Pixel 6 Pro tienen cámaras nuevas

Hoy, en su evento de lanzamiento de Pixel Fall, después de muchos preanuncios y filtraciones, Google finalmente anunció todos los detalles de Pixel 6 y Pixel 6 Pro. Algunos de los cambios más importantes en estos nuevos teléfonos insignia de Google son los módulos de cámara actualizados. Los teléfonos Pixel han sido durante mucho tiempo campeones de la fotografía de teléfonos inteligentes, pero Google se ha dormido en los laureles durante algún tiempo, utilizando el mismo sensor Sony IMX363 de 12,2 megapíxeles desde Pixel 3 hasta Pixel 5 y 5A.

Ahora, las cámaras principales de Pixel 6 y 6 Pro albergan un sensor de 50 megapíxeles, que es más grande que sus predecesores y reagrupa las imágenes a una salida de 12,5 megapíxeles. Google afirma que ahora puede capturar un 150% más de luz que el Pixel 5, con su sensor de imagen de 1 / 1,31 ”y una apertura de f / 1,85. Siguiendo el registro del juego del iPhone, ambos píxeles tienen lentes ultraanchos con sensores de 12 megapíxeles, mientras que el 6 Pro agrega un tercer teleobjetivo con zoom óptico de 4x acoplado a una resolución de 48 megapíxeles. En la parte frontal, la cámara para selfies del Pixel 6 tiene 8 megapíxeles con un campo de visión de 84 grados, mientras que la 6 Pro tiene 11,1 megapíxeles y 94 grados para selfies grupales más ligeras.

El zoom Super Res del Pixel 6 Pro ahora usa el zoom óptico 4x de su teleobjetivo.
GIF: Google

La configuración de la cámara trasera es una desviación de Pixels anteriores, donde el hardware básico de las cámaras Pixel permitía a Google enfocarse directamente en optimizar el software. Algunas iteraciones de Pixel agregaron o eliminaron una lente adicional o dos, pero cada una se basó principalmente en características computacionales.

Estos desarrollos de software también han traído nuevas funciones a Pixel 6 y 6 Pro. Google afirma que el modo de retrato rediseñado puede representar mejor diferentes tonos de piel de grupos de personas más grandes y diversos, lo que llama a la función Real Tone. Google se ha coordinado con fotógrafos y fotógrafos en color para crear retratos más diversos en el conjunto de datos de imagen de sus modelos de cámara. Google dice que ha ido tan lejos como para corregir incluso algunas aberraciones que afectan más severamente la representación de la imagen de las personas con piel más oscura, como la implementación de un nuevo algoritmo para reducir la luz parásita, que lava la piel oscura. Google dice que está dedicado a desarrollar una experiencia más equitativa con sus cámaras y productos de imágenes, lo que esperamos sea una salida bienvenida de omisiones pasadas en sus algoritmos.

Mejoras de Google Real Tone en sus cámaras Pixel.
GIF: Google

Lo que Google llama Face Unblur promete usar múltiples imágenes grabadas cada vez que presiona el botón del obturador para mantener los rostros despejados, incluso cuando se dispara el movimiento. Inicie este proceso antes de tomar una foto, preparando la segunda cámara para disparar a una velocidad de obturación más rápida, una vez que vea una cara borrosa en el encuadre. Luego, haga coincidir los píxeles y combine las imágenes para obtener caras más claras.

Ejemplo de Face Unblur con cámaras Pixel 6.
GIF: Google

El modo de movimiento está diseñado para capturar fotos de acción y exposiciones prolongadas por motivos estéticos, como las luces de un automóvil a rayas en un paisaje nocturno o un panorama con un sujeto en movimiento para desenfocar el fondo y dar una sensación de velocidad. Google utiliza el aprendizaje automático para detectar el contenido del marco y desenfocar un fondo detrás de un sujeto en movimiento mientras se mueve, o para mantener todo claro cuando te quedas quieto y solo los elementos clave se desvanecerán. Nuevamente, use múltiples velocidades de obturación de diferentes módulos de cámara y combine imágenes. Google ha mostrado ejemplos de una cascada que se desvanece en hilos sedosos y un tren subterráneo que se desvanece detrás de una persona estática en la plataforma. Todas estas son fotos que convencionalmente requieren un trípode u otro equipo fotográfico especializado, aunque Google promete que puedes hacer esta computadora de mano con el Pixel 6.

Magic Eraser puede eliminar automáticamente los sujetos no deseados del fondo.
GIF: Google

Finalmente, Magic Eraser intentará eliminar distracciones y bombardeos con fotos de Google Photos. Una vez que se toma una foto, Google Photos puede hacer sugerencias para eliminar automáticamente los sujetos no deseados de la imagen. Los usuarios también pueden revisar la foto y seleccionar objetos que distraigan del marco para eliminarlos. Aparte de los fotobombarderos, otros ejemplos dados por Google fueron la búsqueda de ubicación y la eliminación de contenido obstructivo de fondo o primer plano para una apariencia limpia. Debido a que está incluido en Google Photos for Pixel, Google dice que la herramienta de eliminación se puede usar para fotos tomadas ahora o para fotos de hace años.

Magic Eraser suena un poco como el concepto de la cerca de cadena larga abandonada, ahora revivida en una forma más alcanzable. Google introdujo la eliminación automática de objetos en Google I / O 2017, seis meses antes de la aparición del Pixel 2, pero nunca llegó a un dispositivo. Al parecer, Google lo olvidó y lo dejó solo. Aunque desde entonces ha sido un caso de estudio para la mentalidad de Google de recibir software, parece que una versión ahora está viva en Pixel 6 y Google Photos.

Google también se asoció con Snap para crear Quick Tap to Snap en Pixel 6. Toque dos veces la parte posterior de su teléfono para acceder directamente a la aplicación de la cámara de Snapchat. Google recibirá transiciones y filtros AR exclusivos de Snap. Esta asociación puede indicar un enfoque más fuerte en el Android de Snapchat, que en el pasado ha tenido una experiencia inapropiada para los usuarios que no utilizan iOS. Snap ahora recibirá soporte nativo para la aplicación Google Camera.


Relacionado:

Deja un comentario