Header Ads Widget

Ticker

6/recent/ticker-posts

WWDC: Novedades de los clips de aplicaciones en ARKit 5

 


Uno de los anuncios de la WWDC 2021 silenciosamente significativos de Apple debe ser sus mejoras planificadas a la función de códigos de clips de aplicaciones de ARKit 5, que se convierte en una herramienta poderosa para cualquier empresa de ventas de productos B2B o B2C.

Algunas cosas parecen salirse de la página

Cuando se presentó el año pasado, la atención se centró en ofrecer acceso a herramientas y servicios que se encuentran dentro de las aplicaciones. Todos los códigos de clips de aplicaciones están disponibles a través de un patrón escaneable y tal vez un NFC. Las personas escanean el código usando la cámara o NFC para iniciar el clip de la aplicación.

Este año, Apple ha mejorado el soporte de AR en App Clip y App Clip Codes, que ahora puede reconocer y rastrear códigos de App Clip en experiencias de AR, para que pueda ejecutar parte de una experiencia de AR sin la aplicación completa.

Apple ofreció dos escenarios principales del mundo real en los que imagina usar estos códigos:

  • Una empresa de azulejos podría usarlos para que un cliente pueda obtener una vista previa de diferentes patrones de azulejos en la pared.
  • Un catálogo de semillas podría mostrar una imagen de RA de cómo se verá una planta o verdura cultivada, y podría permitirle ver ejemplos virtuales de esa vegetación que crece en su jardín, a través de RA.

Ambas implementaciones parecían bastante estáticas, pero es posible imaginar usos más ambiciosos. Podrían usarse para explicar los muebles de autoensamblaje, detallar los manuales de mantenimiento del automóvil o para proporcionar instrucciones virtuales sobre una cafetera.

¿Qué es un clip de aplicación?

Un clip de aplicación es una pequeña porción de una aplicación que lleva a las personas a través de parte de una aplicación sin tener que instalar toda la aplicación. Estos clips de la aplicación ahorran tiempo de descarga y llevan a las personas directamente a una parte específica de la aplicación que es muy relevante para el lugar donde se encuentran en ese momento.

    Captura de objetos

    Apple también presentó una herramienta de apoyo esencial en WWDC 2021, Object Capture in RealityKit 2. Esto hace que sea mucho más fácil para los desarrolladores crear modelos 3D fotorrealistas de objetos del mundo real rápidamente usando imágenes capturadas en un iPhone, iPad o DSLR.

    Lo que esto significa esencialmente es que Apple ha pasado de capacitar a los desarrolladores para crear experiencias de AR que existen solo dentro de las aplicaciones a la creación de experiencias de AR que funcionan de manera portátil, más o menos fuera de las aplicaciones.

    Eso es significativo, ya que ayuda a crear un ecosistema de activos, servicios y experiencias de AR , que necesitará a medida que intente avanzar más en este espacio.

    Se requieren procesadores más rápidos

    Es importante comprender el tipo de dispositivos capaces de ejecutar dicho contenido. Cuando ARKit se introdujo por primera vez junto con iOS 11, Apple dijo que necesitaba al menos un procesador A9 para funcionar. Las cosas han avanzado desde entonces, y las características más sofisticadas de ARKit 5 requieren al menos un chip A12 Bionic.

    En este caso, el seguimiento de App Clip Code requiere dispositivos con un procesador A12 Bionic o posterior, como el iPhone XS. El hecho de que estas experiencias requieran uno de los procesadores más recientes de Apple es digno de mención, ya que la compañía se dirige inexorablemente hacia el lanzamiento de las gafas AR .

    Da sustancia a la comprensión de la decisión estratégica de Apple de invertir en el desarrollo de chips. Después de todo, el cambio de los procesadores A10 Fusion a A11 produjo una ganancia de rendimiento del 25% . En este punto, Apple parece estar logrando ganancias aproximadamente similares con cada iteración de sus chips. Deberíamos ver otro salto en el rendimiento por vatio una vez que pase a chips de 3 nm en 2022, y estos avances en capacidad ahora están disponibles en todas sus plataformas, gracias a los chips Mac de la serie M.

    A pesar de todo este poder, Apple advierte que la decodificación de estos clips puede llevar tiempo, por lo que sugiere que los desarrolladores ofrezcan una visualización de marcador de posición mientras ocurre la magia.

    ¿Qué más hay de nuevo en ARKit 5?

    Además de los códigos de clips de aplicaciones, ARKit 5 se beneficia de:

    Anclajes de ubicación

    Ahora es posible colocar contenido AR en ubicaciones geográficas específicas, vinculando la experiencia a una medición de longitud / latitud de Maps. Esta función también requiere un procesador A12 o posterior y está disponible en las principales ciudades de EE. UU. Y en Londres.

    Lo que esto significa es que es posible que pueda deambular y obtener experiencias de AR simplemente apuntando su cámara a un letrero o verificando una ubicación en Maps. Este tipo de realidad superpuesta tiene que ser un indicio de los planes de la compañía, particularmente en línea con sus mejoras en accesibilidad , reconocimiento de personas e indicaciones para caminar.

    Mejoras en la captura de movimiento

    ARKit 5 ahora puede rastrear con mayor precisión las articulaciones del cuerpo a distancias más largas. La captura de movimiento también admite con mayor precisión una gama más amplia de movimientos de extremidades y posturas corporales en procesadores A12 o posteriores. No se requiere ningún cambio de código, lo que debería significar que cualquier aplicación que use captura de movimiento de esta manera se beneficiará de una mejor precisión una vez que se lance iOS 15.


    Publicar un comentario

    0 Comentarios