El Internet de las cosas ofrece un mundo de datos, visibilidad y oportunidades que ni siquiera existía hace una década. Desde la fabricación hasta el transporte, las organizaciones de casi todos los sectores están utilizando soluciones basadas en IoT para impulsar nuevos niveles de eficiencia operativa al aprovechar las tendencias clave en el aprendizaje automático y la informática de punta.

Si bien las oportunidades de las soluciones de IoT son ilimitadas, las empresas luchan con algunos desafíos importantes al pasar de los proyectos piloto a las implementaciones a gran escala. Además de las limitaciones de conectividad, los riesgos de seguridad y el retorno incierto de la inversión, muchas organizaciones luchan por ingerir, normalizar, alinear y luego inferir información procesable de la gran cantidad de flujos de datos. Hacer esto bien es el primer paso para implementar soluciones de IoT habilitadas para el aprendizaje automático.

Para eliminar estos desafíos en 2020 y más allá, las organizaciones comenzarán a priorizar la calidad y precisión de sus datos. Afortunadamente, el procesamiento de borde ofrece una nueva forma de garantizar que los usuarios puedan obtener rápidamente datos de calidad para impulsar el análisis en tiempo real.

La calidad de los datos impacta el éxito de las implementaciones

GettyImages IoT Small

El gasto global de IoT está creciendo a una tasa de dos dígitos y se pronostica que alcanzará los 1.200 millones de dólares en 2022, según IDC. Si bien IDC identificó 82 casos principales de uso de IoT en veinte industrias, las organizaciones innovadoras crean continuamente nuevas aplicaciones.

A medida que las ideas pasan de las pruebas de concepto a las implementaciones comerciales, la calidad de los datos influirá en el éxito y la rentabilidad de muchas aplicaciones. Tratar de implementar proyectos de IoT con datos en bruto y de transmisión insuficientes, faltantes o propensos a errores a menudo conduce a modelos de aprendizaje automático inexactos, toma de decisiones estancadas y un retorno de la inversión deficiente.

Estos "datos sucios" le cuestan a las organizaciones más de 600 mil millones de dólares por año en proyectos de TI fallidos y de bajo rendimiento, según el Data Warehouse Institute. Y los científicos de datos ahora pasan más del 80 por ciento de su tiempo simplemente limpiando y organizando datos, dejando solo el 20 por ciento de su tiempo para analizarlos, según un informe de IBM.

Ahora más que nunca, las organizaciones que se toman en serio las implementaciones de IoT deben poner la calidad de los datos a la vanguardia para garantizar que los modelos de aprendizaje automático puedan tomar decisiones más informadas y basadas en datos.

El papel de la informática de punta en la calidad de los datos.

La calidad de los datos a menudo está influenciada no solo por las entradas y las fuentes, sino también por los sistemas utilizados para recopilarlos y procesarlos. Con una variedad infinita de sensores y plataformas en el mercado, muchas organizaciones luchan por alinear docenas o incluso cientos de transmisiones en un formato utilizable que admita la transmisión de alta velocidad y el análisis en tiempo real.

A medida que el volumen y las fuentes de datos se expanden, las organizaciones necesitan nuevas formas de recopilar y procesar información de datos sin procesar de fuentes de datos remotas para crear una imagen completa de las operaciones.

Una forma de aprovechar al máximo los datos y mejorar la calidad es acercar la potencia informática a donde se generan los datos. La computación perimetral es especialmente útil en las implementaciones de IoT porque permite a las organizaciones convertir datos sin procesar en la fuente en información procesable con análisis y procesamiento en tiempo real. Los dispositivos habilitados para Edge ayudan a limpiar y formatear datos sucios localmente, lo que mejora la capacitación y la implementación de modelos de aprendizaje automático precisos y efectivos. De hecho, los investigadores de la industria creen que los casos de uso basados ​​en borde para IoT serán un poderoso catalizador para el crecimiento en los mercados verticales clave, y que los datos serán procesados ​​(de alguna forma) por la computación de borde en el 59 por ciento de las implementaciones de IoT para 2025.

Los investigadores de la industria creen que los casos de uso basados ​​en el borde para IoT serán un poderoso catalizador para el crecimiento en los mercados verticales clave. Según un informe de Strategy Analytics, el 44% de las empresas ya están utilizando algún tipo de computación perimetral en sus implementaciones. Y Gartner predice que para 2025, las tres cuartas partes de todos los datos generados por la empresa se crearán y procesarán fuera de los sistemas en la nube o los centros de datos centralizados.

La computación perimetral se usa en muchas industrias y puede tomar muchas formas, desde procesos integrados hasta dispositivos independientes. En las fábricas, los fabricantes ahora utilizan el procesamiento de bordes en los sensores para obtener información en tiempo real sobre cómo funcionan sus líneas y equipos de producción. A través de los modelos de aprendizaje automático, pueden identificar perfiles de productos para reducir las piezas defectuosas y minimizar el tiempo de inactividad no planificado, maximizar el rendimiento y aumentar la utilización de la máquina. Y en la industria del transporte, la informática de última generación en cámaras, la asistencia al conductor y las tecnologías para evitar colisiones permiten una mayor eficiencia, confiabilidad y seguridad.

Si bien la informática de vanguardia proporcionará un vehículo para lograr estos nuevos conocimientos, los datos de calidad son el combustible que lo impulsará. Al limpiar y enriquecer los datos sucios en el momento de su creación, la computación de borde puede mejorar significativamente la calidad de los datos y refinar los datos repetitivos de la máquina para mejorar la eficiencia operativa.


Por Ramya Ravichandar, vicepresidenta de productos en FogHorn