Header Ads Widget

Ticker

6/recent/ticker-posts

¿Qué es la computación en niebla?


 La web está en constante evolución, se vuelve cada vez más compleja y poderosa a medida que la industria agrega nuevas tecnologías y soluciones. Las demandas de procesamiento y almacenamiento de datos de los consumidores son más altas que nunca y, por lo tanto, las arquitecturas web deben girar e innovar para satisfacer estas demandas.

Una de esas innovaciones es el concepto de computación en la niebla . A menudo como sinónimo de la  computación de borde , la computación en la niebla es posiblemente la próxima frontera para acelerar las conexiones de IoT, que ofrece mayor velocidad, rendimiento y una gran cantidad de otros beneficios.

La computación en la niebla está preparada para provocar una revolución en la forma en que se transfieren los datos entre dispositivos de IoT : una mayor flexibilidad en la posición del nodo, las limitaciones de ancho de banda y el coprocesamiento significan que los elementos que antes se consideraban en el campo "futurista" ahora son teóricamente posibles. La idea de impulsar la funcionalidad VR o AR, por ejemplo, se convierte rápidamente en una posibilidad mayor cuando hay más procesamiento y ancho de banda de datos disponible para dispositivos con mayor proximidad y menor ancho de banda. Esta es, por supuesto, solo una posibilidad para esta asombrosa nueva tecnología, razón por la cual se habla tanto sobre la implementación de niebla en la infosfera API.

Sin embargo, la clave para implementar la computación en la niebla es comprenderla. Hoy hablamos de eso. Definiremos la computación en la niebla, destacaremos sus pros y contras, y discutiremos la diferencia entre la computación en la niebla y el concepto íntimamente relacionado, la computación de borde.

Seguimiento de la evolución informática hasta la niebla

En primer lugar, ¿qué es la computación en la niebla ? En los términos más simples, la computación en la niebla es un enfoque híbrido de conceptos de diseño de arquitectura clásica y arquitectura moderna en la nube.

Clásico: servidores centralizados, comunicación simple cliente-servidor

El paradigma de la arquitectura clásica es el siguiente: los servidores centralizados reciben solicitudes de clientes remotos, realizan cálculos y otras funciones y luego devuelven los resultados a los clientes. La interpretación está en el ámbito del dispositivo, y la transmisión está a cargo de terceros.

Así es como funcionó la informática en un entorno de servidor durante mucho tiempo, y por una buena razón. La centralización de tareas computacionales agrega un mayor nivel de seguridad, haciendo que la única vía débil sea la transmisión de datos. El sistema es sumamente sencillo de configurar y administrar y, por lo tanto, produce una baja sobrecarga .

Sin embargo, hay algunos problemas inherentes a esto. Depender completamente de los servidores centralizados significa ineficiencia . Los datos deben almacenarse en el dispositivo o en el servidor, y toda la funcionalidad se relega al dispositivo local o al servidor remoto con poca supervisión y control.

Consulte también: Los beneficios de un backend de API sin servidor

Computación en la nube: instancias virtuales compartidas

La computación en la nube introdujo un nuevo paradigma: en lugar de centralizar estos recursos y tener una relación estrictamente delineada, la computación en la nube establece instancias virtualizadas donde los clientes remotos pueden conectarse a sus propios entornos personalizados para el procesamiento. Una forma de considerar la computación en la nube es pensar en ella como "usar la computadora de otra persona". Los datos se pueden almacenar "en la nube" en almacenamiento remoto y se puede acceder a ellos cuando sea necesario para cálculos híbridos tanto en el dispositivo como en el servidor mismo.

Suena genial, pero hay algunos problemas obvios. El sistema es mucho más complejo y, por lo tanto, introduce una sobrecarga mayor que cualquier sistema de diseño clásico. Tener eventos instanciados significa que los servidores centralizados deben ser más grandes con mayor acceso a cantidades de almacenamiento cada vez mayores. Si bien esto significa una mayor escalabilidad, introduce un circuito de retroalimentación que exige una mayor dependencia de las soluciones del centro de datos.

Leer más: Definición de servicios web con estado y sin estado

Edge Computing: dispositivos más cercanos, procesamiento compartido

La computación en el borde es un concepto en el que todos los dispositivos de la red comparten, de alguna manera, la carga computacional de la red en su conjunto . La idea es que al acercar los recursos al consumidor y permitir que el esfuerzo computacional se extienda a todos los dispositivos relacionados, lleve el origen real de los datos al "borde" de la red.

Computación de niebla: nicho, almacenamiento local y procesamiento

La computación en la niebla, entonces, es un enfoque híbrido de la nube y el enfoque clásico. La funcionalidad de la nube en forma de instancias virtualizadas se agrega a la arquitectura clásica, llevando el procesamiento y la manipulación reales a los nodos más cercanos en la vasta red. La computación en la niebla se ocupa principalmente de la proximidad : garantizar que los datos se procesen, almacenen y manipulen más cerca del solicitante de datos real.

Lo que hace la computación en la niebla es esencialmente una carrera de relevos: procesar los datos más cerca del solicitante, aprovechar los recursos donde estén disponibles y optimizar esta funcionalidad para activar instancias y procesos cuando sea necesario en función de la ubicación de la solicitud de datos, sin depender de la ubicación del servidor centralizado.

La computación en la niebla es diferente de la computación en el borde de una manera sutil, pero importante, y tiene mucho que ver con dónde se encuentra la potencia computacional. En la computación de niebla, el poder computacional se centra en los "nodos" de niebla y las puertas de enlace de IoT ; en la informática de borde, toda la red en sí misma funciona como una potencia computacional, distribuyendo la parte compartida entre todos los dispositivos y los controladores de automatización resultantes.

Pros de la computación en niebla

La computación en niebla tiene algunos beneficios bastante obvios. Según lo determinado por el documento de investigación de Cisco , al acercar el procesamiento y la entrega de datos a los dispositivos solicitantes mediante la expansión de una huella de red geográfica y al operar en una arquitectura de niebla basada en nodos en lugar de en la nube o en sistemas tradicionales, los tiempos de respuesta a los clientes se puede mejorar casi exponencialmente . La proximidad es una gran parte de la eficiencia de la red , y el efecto de mover datos hacia el consumidor a lo largo de una ruta de red a través de tales nodos de niebla simplemente no puede ser exagerado. El aumento de la eficiencia de la red a través de la proximidad combina muchos de los beneficios de la arquitectura clásica y evita sus inconvenientes.

Como parte de este movimiento hacia los nodos de la red, la congestión en la red también se reduce drásticamente En el paradigma arquitectónico clásico, la totalidad del procesamiento se exige en un sistema muy centralizado. Esto significa que los clientes que realizan solicitudes a menudo tienen que hacer cola para su turno, dependiendo de los recursos que están constantemente en alta demanda. Esencialmente, las arquitecturas clásicas son cuellos de botella glorificados en todos los casos de uso específicos, excepto en unos pocos, donde los datos quedan atrapados en un patrón de retención en bucle. La computación en la niebla evita esto al distribuir esta funcionalidad en un espacio mucho, mucho más amplio.

Si bien la distribución en la nube puede ser anulada por algunas soluciones, es problemática, ya que también significa que la respuesta de la red en su conjunto sufre, incluso con la multiplexación y otras soluciones de equilibrio de carga. Con la computación en la niebla, evita esto en gran medida, distribuyendo la responsabilidad a varios nodos. Aún tiene cuellos de botella, sí, pero está llevando el concepto de equilibrio de carga y aplicándolo al extremo, lo que resulta en una entrega de datos más rápida y una mejor eficiencia de la red.

La computación en la niebla también cuenta con algunas capacidades de escala impresionantes Trabajar con nodos significa que, a medida que se necesitan más nodos, los nodos inactivos pueden activarse y utilizarse en función de la proximidad a la solicitud de datos. Una parte integral de este diseño también es un impulso en la seguridad : los datos se codifican a medida que se mueven hacia el borde de la red, y las relaciones y presencias cambiantes de los nodos significan que su superficie de ataque está en constante cambio. Esto da como resultado un proceso de codificación seguro sin una metodología clara de ataque.

Lea también: Living in the Cloud Stack: comprensión de las API de SaaS, PaaS e IaaS

Contras de la Computación en Niebla

Sin embargo, no todo lo relacionado con la computación en la niebla es perfecto. El mayor inconveniente es el hecho de que la computación en la niebla agrega una cantidad ridícula de complejidad a una red y, por lo tanto, agrega una cierta cantidad de gastos generales en términos comerciales. Esto significa efectivamente que, a menos que necesite computación en la niebla, en realidad puede salir peor al implementarla.

Además, la implementación de la computación en la niebla significa que está introduciendo un número cada vez mayor de puntos de falla. Si bien la seguridad se ve beneficiada en cierto modo por este cambio constante, el aspecto de mantenimiento y previsibilidad no. En las soluciones tradicionales, tiene un único punto de falla con un esfuerzo centralizado para reparar, mantener e identificar problemas potenciales. Al distribuir la carga computacional, distribuye ese esfuerzo y responsabilidad, lo que puede generar estrés en todo el proceso.

En última instancia, esto significa que existe un enorme potencial de pérdida de privacidad que se genera en la computación en la niebla por su propia naturaleza, y aunque ciertamente hay formas de manejar esto, es algo que debe tenerse en cuenta durante la adopción.

Eso no quiere decir que la computación en la niebla no sea una gran solución, es simplemente para decir que se trata de un caso de "si cree que no lo necesita, probablemente no lo necesite".

El papel de las API en la informática en la niebla

Entonces, ¿cuál es el papel de la API en este gran esquema? Las API siempre han sido el intermediario entre los sistemas o nodos centralizados en un sistema descentralizado y el consumidor, y esto es igualmente cierto en la computación en la niebla. Quizás más que cualquier otra arquitectura, las API son necesarias para administrar y optimizar los nodos de computación en la niebla , y desempeñan un papel vital en el desarrollo de la columna vertebral que permite tal sistema.

Cada nodo es efectivamente un punto final accesible por el cliente, todo administrado por un sistema mayor; en este sentido, la API casi se puede considerar lo mismo que cualquier elemento físico de una red, actuando como puertas de enlace y conmutadores para administrar el flujo de datos y Asignar el manejo adecuado del nodo .

Considere la computación en la niebla como una ciudad gigante. Cada vecindario tiene una variedad de tiendas, pero el lugar donde viva determinará la tienda que visite. Las API son las carreteras por las que se conduce, creando caminos para quienes viven en la ciudad y estableciendo flujos de tráfico para un transporte óptimo. Son los semáforos, controlan el tráfico y garantizan que la congestión se mantenga al mínimo. Y, lo más importante, son las reglas por las que se conduce, lo que garantiza que quienes utilizan el sistema cumplan con las metodologías y prácticas adecuadas.

Las API no solo juegan un papel mecánico, por supuesto, también son responsables de la optimización del tráfico. La estructuración adecuada de la API con puntos finales sensibles, equilibrio de carga, verificación de ubicación y autenticación / autorización básica dará como resultado aumentos drásticos en la eficiencia en lo que respecta a la navegación de nodos y, a medida que la red de niebla se vuelva más compleja, este rol solo aumentará.

Todavía se prevé que la nube mantenga su cuota de mercado durante algún tiempo. Dicho esto, el movimiento hacia la niebla ocurrirá gradualmente: a medida que los sistemas se vuelvan más complejos y requieran más de lo que la nube puede proporcionar, la computación en la niebla y las API en ese espacio reemplazarán rápidamente a la nube como la solución de referencia .

Casos de uso potenciales

La computación en la niebla es muy poderosa, pero como se dijo anteriormente, utilizar la computación en la niebla cuando no hay un caso de uso real puede ser una carga en lugar de algo positivo. Con ese fin, hay algunas situaciones en las que la computación en la niebla tiene absolutamente sentido.

Hablando principalmente, el principal caso de uso de la computación en la niebla, y posiblemente todo el propósito de su creación, es el aumento en el procesamiento de datos y la eficacia de la entrega. Al moverlos a los nodos de niebla, mejora la red de manera exponencial; estas son cualidades que son absolutamente necesarias para muchas aplicaciones con mucho tráfico. Computación de enjambre , IA , renderizado y codificación multimedia ; todos estos son pesados ​​en computación y tránsito y, por lo tanto, pueden beneficiarse principalmente de la computación en la niebla.

Con un aumento en la eficacia también viene una extensión en la funcionalidad, específicamente en el espacio de Internet de las cosas . Debido a que IoT a menudo involucra cientos de dispositivos en varias ubicaciones con los que se interactúa para diversos propósitos en una red amplia , vincularlos en clústeres más localizados puede proporcionar una transferencia de datos más eficiente y una velocidad enormemente mejorada. Este tipo de comunicación hace que la comunicación de datos altos entre teléfonos móviles , dispositivos portátiles de monitoreo de salud , vehículo bluetoothguiones y dispositivos de realidad aumentada no solo factibles, sino más potentes. La eliminación de la latencia, la alta sobrecarga y el procesamiento dependiente del dispositivo de las arquitecturas tradicionales hace que todo esto sea teóricamente posible.

Algunos han comparado la computación en la niebla con un tipo de red neuronal : nodos sobre nodos, vinculados a un poderoso sistema computacional descentralizado, compartiendo datos en el método más lógico posible. Las implicaciones son enormes, y esto es parte de la razón por la que la computación en la niebla va a desempeñar un papel tan importante en estos campos florecientes.

Principales actores

Como efecto secundario de estar íntimamente ligado al trabajo realizado por el gigante de TI CISCO , hay algunos actores bastante importantes en la industria que respaldan este nuevo estándar. CISCO ha sido fundamental en el establecimiento de los conceptos fundamentales de la computación de borde y, por extensión, la computación en la niebla, y estos esfuerzos han dado como resultado un movimiento hacia un marco de estándares abiertos .

Este marco de estándares abiertos también ha sido fuertemente impulsado por el Open Fog Consortium , un llamado "ecosistema público-privado" cuyo objetivo declarado es "acelerar la adopción de la niebla". Esta organización también tiene un pedigrí serio detrás de ella: el Open Fog Consortium fue fundado en noviembre de 2015 por ARM, Cisco, Dell, Intel, Microsoft y el Laboratorio de Computación Edge de la Universidad de Princeton.

La computación en la niebla tampoco es solo una cosa de Internet: el concepto tiene serias implicaciones en el mundo real, tan lejos como la Marina de los Estados Unidos . SPAWAR, una división de la Marina de los EE. UU., Utiliza los conceptos descritos aquí para crear un sistema escalable que denominan Red de malla tolerante a interrupciones. Lo que esto significa, en términos simples, es una red que puede resistir la intrusión y el ataque distribuyendo el acceso a recursos móviles, estáticos y estratégicos mediante un sistema de nodos. Esto se puede considerar similar a una hidra: cortar una cabeza, más vuelve a crecer, derriba un nodo y más responderán.

Esto es esencialmente lo que muchos expertos piensan que los enjambres de drones inteligentes también  se comportarán en el futuro. Distribuir el procesamiento entre los nodos y permitir que cada nodo asuma una autoridad basada en la proximidad permite que los pequeños nano-drones pululen, con usos potenciales que incluyen la polinización de plantas con flores amenazadas, control de mosquitos y otros insectos, e incluso sistemas de defensa antimisiles a gran altitud. micro enjambres capaces de actuar como una especie de paja móvil.

Sin embargo, parte del problema con la computación en la niebla es que todavía es una tecnología muy incipiente. Al igual que la computación en la nube, tiene un largo camino por recorrer antes de que pueda alcanzar su potencial en términos de funcionalidad e implementación. Es novedoso e innovador, y tiene el potencial de ser verdaderamente disruptivo, pero es necesario implementar más planificación, investigación y pruebas en el mundo real antes de poder defender el compromiso total.

 

Publicar un comentario

0 Comentarios