Algoritmo en redes sociales, automatización de tareas industriales y domésticas, así como análisis de datos en diferentes campos. La Inteligencia Artificial (IA) ha jugado un papel fundamental en la transformación de diversos ámbitos de la sociedad moderna. Debido a su potencial para mejorar la calidad de vida de las personas y simplificar procesos, esta tecnología ha experimentado un crecimiento exponencial, convirtiéndose rápidamente en una herramienta indispensable en innumerables sectores.
Según una encuesta de Itaú Unibanco, el gasto brasileño en IA aumentó un 120%, en comparación con el mismo período del año anterior. Además, el 41% de las empresas brasileñas ya implementan activamente esta herramienta, según un estudio de mercado encargado por IBM. Debido a este rápido aumento, aunque beneficioso, la tecnología todavía enfrenta algunos desafíos sustanciales.
Las cuestiones éticas, la transparencia y el sesgo algorítmico necesitan más importancia para garantizar el uso responsable de la IA. Pero lo más destacado es la seguridad, ya que la tecnología proporciona comodidad y automatización a las personas tanto en su vida personal como en su lugar de trabajo, y los ciberdelincuentes también la aprovechan como medio para mejorar sus ataques en Internet.
El FBI ya ha emitido una advertencia a los ejecutivos, investigadores e ingenieros de empresas de tecnología y nuevas empresas que trabajan con IA sobre la creciente amenaza de filtraciones de propiedad intelectual. Al otro lado del Atlántico, la Agencia de Cooperación Policial de la Unión Europea, Europol, también ha emitido una advertencia similar. Además, se ha informado que se han llevado a cabo ataques de "phishing" utilizando ChatGPT.
En este contexto, existe una solución que juega un papel fundamental a la hora de establecer estándares predeterminados que aborden problemas como este de manera efectiva: la regulación.
Este tipo de legislación es crucial para establecer estándares de interoperabilidad, usos aceptables y ética, permitiendo un enfoque estandarizado internacionalmente. A nivel nacional, es capaz de alinear la adopción de la IA con los valores e intereses del país. Reglas claras pueden mitigar los riesgos asociados con la invasión de la privacidad y las prácticas monopólicas, garantizando que la tecnología se utilice de manera beneficiosa.
En el ámbito tecnológico, la creación de legislación al respecto puede facilitar la interoperabilidad entre sistemas y plataformas, fomentando la investigación en áreas de interés público y promoviendo la competencia leal y la mejora continua, que asegure una IA más ética, eficiente y transparente.
Avance de la regulación
En Brasil existen algunos proyectos de ley que buscan regular el desarrollo, aplicación y uso de sistemas de Inteligencia Artificial que se encuentran en trámite en el Congreso Nacional.
El Proyecto de Ley 21/2020, conocido como marco legal para regular su uso, por ejemplo, establece principios que deben guiar la aplicación de la IA en el país: respeto a la dignidad humana, transparencia en los algoritmos y protección de datos personales. 2338/2023, fue presentada en el Senado con el objetivo de establecer derechos de los ciudadanos afectados por la tecnología y la creación de herramientas de fiscalización, la norma abarca cinco pilares centrales: principios; derechos de los afectados; clasificación de riesgos; obligaciones y requisitos de gobernanza; supervisión y rendición de cuentas.
A pesar de la necesidad, esta tarea es compleja. La falta de conocimiento técnico por parte de los reguladores a la hora de redactar normas da como resultado regulaciones que no sólo tienen lagunas en su estructura, sino que también pueden representar una amenaza para el progreso de una tecnología tan innovadora, cuyos límites aún no están completamente definidos.
Incluso en proceso, el desarrollo de legislación sobre el uso de la Inteligencia Artificial enfrenta el desafío central de equilibrar la protección pública y la promoción de la innovación. Unas normas demasiado estrictas pueden inhibir las propuestas innovadoras y la agilidad. Sin embargo, la ausencia de estándares también es perjudicial, ya que conduce al desarrollo de tecnologías de IA que no tienen en cuenta la ética, la privacidad y los derechos de las personas.
Por lo tanto, es imperativo que los organismos reguladores, junto con la industria, tengan presente la construcción de un marco legal basado en estos temas, combinando la innovación responsable con la protección de los derechos de los ciudadanos, asegurando que la tecnología de IA evolucione con beneficios para toda la sociedad.