Face Time hace que parezca que miramos a los ojos
La nueva versión de Face Time, en iOS 13, corregirá la mirada para que parezca que miramos a los ojos de nuestro interlocutor. Will_Sigmon

Los filtros les ponen a nuestras fotos una belleza que no tenemos (tenemos otra, pero esa va por dentro) y ahora en las videollamadas podremos mostrar una atención real. En iOS 13 de Apple podremos corregir nuestra mirada para que parezca que miramos a los ojos de nuestro interlocutor todo el tiempo.

El nuevo FaceTime de la tercera beta iOS13 y iPadOS será capaz de corregir automáticamente los ojos para que miren a la cámara y no a la pantalla. Apple quiere así corregir la falta de contacto visual entre los dos interlocutores, un problema clásico de las videollamadas.

Cuando se realiza una videollamada, lo normal es que los dos interlocutores miren la pantalla, es decir, se miren el uno al otro, pero al estar siendo transmitida con la cámara frontal, ubicada en la parte superior, el efecto resultante es que los ojos de los participantes parecen mirar a otro lado.

Mike Rundle, un desarrollador que está probando la beta 3 de iOS 13, ha compartido esta nueva función. Un algoritmo detectará nuestra cara y moverá nuestra mirada automáticamente para que así, al otro lado, nuestro interlocutor sienta que realmente le estamos mirando a los ojos; vamos, que le estamos prestando toda la atención que merece.

Si se activa esta opción, "el contacto visual con la cámara será más preciso durante las videollamadas de FaceTime", explica el texto de la función. No obstante, se ha añadido un botón para activarlo o desactivarlo.

Por el momento, esta nueva opción solo se está disponible en los iPhone XS Max, iPhone XS y iPhone XR que tengan instalados la tercera beta de desarrolladores. Por ello, es posible que la función pudiera requerir el uso del Neural Engine incorporado en el procesador A12 Bionic.