Header Ads Widget

Ticker

6/recent/ticker-posts

Apple pone un mapa al futuro en iPhone

Apple está lanzando guías de ciudad de realidad aumentada, que utilizan la cámara y la pantalla de su iPhone para mostrarle a dónde se dirige. Entonces, ¿a dónde va Apple con esto?


Apple ha comenzado a implementar sus guías de ciudad de realidad aumentada (AR) de larga data, que utilizan la cámara y la pantalla de su iPhone para mostrarle a dónde se dirige. También muestra parte del futuro que Apple ve para los usos activos de AR.

A través del espejo, vemos claramente
La nueva guía de realidad aumentada está disponible en Londres, Los Ángeles, Nueva York y San Francisco. Ahora, no estoy muy convencido de que la mayoría de las personas se sientan particularmente cómodas moviendo sus iPhones de más de $ 1,000 en el aire mientras se abren camino a través de los lugares turísticos. Aunque estoy seguro de que hay algunas personas que realmente esperan que lo hagan (y no todas trabajan en Apple ).

Pero muchos lo intentarán. ¿Qué hace?

Apple anunció su plan para introducir una guía para caminar paso a paso en AR cuando anunció iOS 15 en la WWDC en junio. La idea es poderosa y funciona así:

  • Coge tu iPhone.
  • Apunta a los edificios que te rodean.
  • El iPhone analizará las imágenes que proporciones para reconocer dónde te encuentras.
  • Los mapas generarán una posición de alta precisión para ofrecer instrucciones detalladas.
  • Para ilustrar esto en el Reino Unido, Apple destaca una imagen que muestra la estación Bond Street con una gran flecha apuntando a la derecha a lo largo de Oxford Street. Las palabras debajo de esta imagen le permiten saber que la estación de Marble Arch está a solo 700 metros de distancia.

Todo esto es útil. Como gran parte de lo que hace Apple, hace uso de una gama de innovaciones más pequeñas de Apple , en particular (pero no del todo) el motor neuronal en los procesadores de iPhone de Apple de la serie A. Para reconocer lo que ve la cámara y proporcionar instrucciones precisas, Neural Engine debe utilizar una serie de herramientas de aprendizaje automático que Apple ha desarrollado. Estos incluyen API de alineación y clasificación de imágenes, API de detección de trayectoria y, posiblemente, API de reconocimiento, detección y detección de horizonte de texto. Esa es la parte pura del análisis de imágenes.

Esto se combina con la detección de ubicación en el dispositivo de Apple, los datos de mapeo y (sospecho) su base de datos existente de escenas callejeras para proporcionar al usuario direcciones casi perfectamente precisas a un destino elegido.

Esta es una gran ilustración del tipo de cosas que ya puede lograr con el aprendizaje automático en las plataformas de Apple: el  modo cinematográfico y el texto en vivo son dos ejemplos recientes excelentes. Por supuesto, no es difícil imaginarse apuntando su teléfono a un letrero de la calle mientras usa las direcciones AR de esta manera para recibir una traducción instantánea del texto.

John Giannandrea, vicepresidente senior de aprendizaje automático de Apple, habló en 2020 de su importancia cuando le dijo a Ars Technica : “Hay un montón de nuevas experiencias impulsadas por el aprendizaje automático. Y estas son cosas como la traducción de idiomas o el dictado en el dispositivo, o nuestras nuevas funciones relacionadas con la salud, como el sueño y el lavado de manos, y cosas que hemos lanzado en el pasado sobre la salud del corazón y cosas como esta. Creo que cada vez hay menos lugares en iOS donde no utilizamos el aprendizaje automático ".

La gama de tecnologías de cámara de Apple habla de esto. El hecho de que pueda editar imágenes en modo Retrato o Cinemático incluso después del evento también ilustra esto. Todas estas tecnologías trabajarán juntas para ofrecer las experiencias de Apple Glass que esperamos que la compañía comience a llevar al mercado el próximo año.

Pero eso es solo la punta de lo que es posible, ya que Apple continúa expandiendo la cantidad de API de aprendizaje automático disponibles que ofrece a los desarrolladores. Las API existentes incluyen las siguientes, todas las cuales pueden ser aumentadas por modelos de IA compatibles con CoreML:

  • API de clasificación, prominencia, alineación y similitud de imágenes.
  • Detección y seguimiento de objetos.
  • Detección de trayectoria y contorno.
  • Detección y reconocimiento de texto.
  • Detección de rostros, seguimiento, puntos de referencia y calidad de captura.
  • Detección del cuerpo humano, postura del cuerpo y postura de la mano.
  • Reconocimiento de animales (gato y perro).
  • Código de barras, rectángulo, detección de horizonte.
  • Flujo óptico para analizar el movimiento de objetos entre cuadros de video.
  • Segmentación de personas.
  • Detección de documentos.
  • Siete API de lenguaje natural, incluido el análisis de sentimientos y la identificación de idiomas.
  • Reconocimiento de voz y clasificación de sonidos.
Apple aumenta esta lista con regularidad, pero hay muchas herramientas que los desarrolladores ya pueden usar para aumentar la experiencia de las aplicaciones. Esta breve colección de aplicaciones muestra algunas ideas. Delta Airlines, que recientemente implementó 12,000 iPhones entre el personal a bordo, también crea una aplicación AR para ayudar al personal de cabina .

Pasos hacia la innovación
Todos pensamos que Apple presentará algún tipo de gafas AR el próximo año .

Cuando lo hace, las funciones de Maps recientemente introducidas por Apple seguramente muestran parte de su visión para estas cosas. El hecho de que también le brinde a la empresa la oportunidad de utilizar análisis privados en el dispositivo para comparar sus propias colecciones existentes de imágenes de ubicaciones geográficas con las imágenes recopiladas por los usuarios solo puede ayudarla a desarrollar interacciones ML / imagen cada vez más complejas.

Todos sabemos que cuanto mayor sea el tamaño de la muestra, más probable es que la IA pueda ofrecer buenos resultados, en lugar de basura. Si esa es la intención, entonces Apple seguramente debe esperar convencer a sus mil millones de usuarios para que usen todo lo que introduzca para mejorar la precisión de los sistemas de aprendizaje automático que usa en Maps. Después de todo, le gusta construir su próximo escalón en la parte posterior del que hizo antes.

¿Quién sabe lo que viene por ese camino ?


Publicar un comentario

0 Comentarios