-6.4 C
New York
Sunday, December 22, 2024

Una primera prueba del Imaginative and prescient Professional de Apple


El lunes pude echarle un vistazo a lo que Apple vislumbra para el futuro de la computación. Durante casi media hora usé el Imaginative and prescient Professional, de 3500 dólares, el primer visor de alta tecnología de la compañía que será lanzado el próximo año.

Salí con sentimientos encontrados, además de una sensación persistente de escepticismo.

Por un lado, quedé impresionado con la calidad del visor que Apple promueve como el comienzo de una period de “computación espacial”, en la que los datos digitales se mezclan con el mundo físico para desbloquear capacidades nuevas. Por ejemplo, imagínate usar un visor para ensamblar un mueble mientras las instrucciones son proyectadas de manera digital en las piezas o cocinar un platillo mientras la receta se despliega en el rabillo de tu ojo.

El dispositivo de Apple tiene video en alta resolución, controles intuitivos y se ajusta con comodidad, de hecho se sintió mejor que mis experiencias con los visores diseñados en la década pasada por Meta, Magic Leap, Sony y otros.

No obstante, tras usar el visor nuevo para ver fotografías e interactuar con un dinosaurio digital, también sentí que no ofrecía muchas novedades. Y la experiencia me causó un issue de “repulsión” que nunca había experimentado con un producto de Apple. Comentaré sobre esto más adelante.

Empecemos por el principio. Después de que Apple presentó el visor el lunes, en lo que fue su primer lanzamiento importante desde el Apple Watch en 2015, me permitieron probar un modelo de preproducción del Imaginative and prescient Professional. El private de Apple me llevó a un cuarto privado en la sede de la compañía en Silicon Valley y me senté en un sillón para una demostración.

El Imaginative and prescient Professional, que se asemeja a un par de gafas para esquiar, tiene un cable USB blanco que se conecta a un paquete de baterías plateado que metí en el bolsillo de mis pantalones. Para usarlo giré una perilla al costado del visor con el fin de ajustarlo a la medida de mi rostro y aseguré una tira de velcro sobre mi cabeza.

Luego presioné un botón metálico ubicado en la parte delantera del dispositivo para encenderlo. Después completé el proceso de configuración, el cual implicó ver un punto en movimiento para que el visor pudiera fijar los movimientos de mi ojo. El Imaginative and prescient Professional tiene un conjunto de sensores para rastrear los movimientos de los ojos, los gestos de las manos y los comandos de voz, que son los modos principales de management. Mirar un icono es el equivalente a pasarle por encima el cursor del ratón; para presionar un botón, juntas los dedos pulgar e índice haciendo una pinza rápida que es el equivalente a dar clic con el ratón.

Ese gesto también se usa para agarrar y desplazarse por las aplicaciones de la pantalla. Es intuitivo y menos tosco que usar los controladores de movimiento que suelen venir con los dispositivos de la competencia.

Sin embargo, se me ocurrieron muchas preguntas. ¿Qué otros gestos de la mano reconocería el visor para jugar? ¿Cuán eficientes serán los controles de voz si actualmente la transcripción de voz de Siri en los teléfonos no funciona bien? Apple aún no sabe qué otros gestos serán compatibles, y no me dejó probar los controles de voz.

Luego llegó el momento de las demostraciones de las aplicaciones que muestran cómo el visor puede enriquecer nuestra vida cotidiana y ayudarnos a mantenernos conectados entre nosotros.

Primero me mostraron cómo ver fotografías y un video de una celebración de cumpleaños en el visor. Pude girar un dial cerca del frente del Imaginative and prescient Professional en sentido contrario a las manecillas del reloj para hacer que los fondos de las fotografías sean más transparentes y así poder ver el mundo actual, incluidos los empleados de Apple a mi alrededor pero, al girarlo en dirección contraria la fotografía se vuelve más opaca y podía sumergirme en ella.

Apple también hizo que abriera en el visor una aplicación de meditación que mostraba animaciones en 3D mientras se reproducía música tranquila y una voz guiaba mi respiración. Sin embargo, la meditación no me preparó para lo que venía: una videollamada.

Apareció una ventana pequeña, la notificación de una llamada por FaceTime de una empleada de Apple que también estaba usando el visor. Me quedé viendo fijamente al botón de contestar y junté los dedos para tomar la llamada.

La empleada que me llamó estaba usando una “persona”, un avatar animado en 3D de ella misma que el visor creó usando un escaneo de su rostro. Apple cree que las videoconferencias a través de estas “personas” son una manera más íntima de que la gente se comunique e incluso colabore en el espacio digital.

Las expresiones faciales de la empleada de Apple parecían reales y los movimientos de su boca se sincronizaban con lo que decía. Sin embargo, debido al renderizado digital de su avatar, con la textura uniforme de su rostro y la falta de sombras, podía darme cuenta de que period falso. Me recordó a los hologramas en video que había visto en películas de ciencia ficción como Minority report: Sentencia previa.

En la sesión de FaceTime, se suponía que la empleada de Apple y yo colaboraríamos para hacer un modelo 3D en una aplicación llamada Freeform. Pero me quedé mirándola sin comprender, pensando en lo que estaba viendo. Después de tres años de estar casi en whole aislamiento durante la pandemia, Apple quería que interactuara con lo que en esencia period un video ultrafalso de una persona actual. Podía sentir cómo mi cuerpo rechazaba participar. Mi sensación de “repulsión” tal vez haya sido lo que los tecnólogos han descrito desde hace mucho como el “valle inquietante” (o “uncanny valley” en inglés), una sensación de inquietud cuando un humano ve la creación de una máquina que parece demasiado humana.

¿Una hazaña tecnológica? Sí. ¿Una función que querría usar con otras personas todos los días? En el corto plazo, quizás no.

Para concluir la sesión con algo divertido, Apple mostró una simulación de un dinosaurio que se me acercaba cuando estiraba la mano. He visto más de un dinosaurio digital en realidad digital (casi todos los fabricantes de visores que me han hecho una demostración en los últimos siete años han usado una simulación de Jurassic Park), y eso no me entusiasmó.

Después de la demostración, conduje a casa y procesé la experiencia mientras atravesaba el tráfico de la hora pico.

Durante la cena, hablé con mi esposa sobre el Imaginative and prescient Professional. Le comenté que el visor de Apple lucía y se sentía mejor que los de la competencia. Sin embargo, no estaba seguro de que eso importara.

Otros visores de Meta y PlayStation de Sony eran mucho más baratos y bastante poderosos y entretenidos, en especial para jugar videojuegos. Sin embargo, cuando teníamos invitados a cenar y se probaban los visores, perdían el interés después de menos de media hora porque la experiencia period agotadora y se sentían desconectados a nivel social del grupo con el que estaban.

¿Sería relevante que pudieran girar el dial del visor para ver el mundo actual mientras lo usan? Sospecho que aún se sentirían aislados, porque quizá serían los únicos en la habitación que usan un visor.

No obstante, lo más importante para mí period la concept de conectar con otros, incluyendo a familiares y colegas, a través de los visores de Apple.

Le dije a mi esposa: “Tu mamá está envejeciendo. Cuando haces FaceTime con ella, ¿preferirías ver su avatar ultrafalso digital o una videollamada de menor calidad en la que sostiene la cámara del teléfono frente a su cara en un ángulo poco favorecedor?”.

“Lo último”, me respondió sin dudar. “Eso es actual. Aunque prefiero verla en persona”.

Brian X. Chen es columnista de tecnología de consumo. Reseña productos y escribe Tech Repair, una columna sobre cómo resolver problemas relacionados con la tecnología. Antes de unirse al Occasions en 2011, reporteó sobre Apple y la industria inalámbrica para Wired. @bxchen




Related Articles

Latest Articles