Por Prasad Prabhakaran, líder de práctica de IA generativa en esynergy
La Cumbre de Seguridad de la IA del Reino Unido en Bletchley Park fue la primera de su tipo y, a pesar de una ráfaga aparentemente interminable de predicciones y debates en las semanas previas sobre lo que implicaría y lograría, esta sensación de algo completamente "nuevo" prevaleció durante su duración. Es extremadamente raro sentir que uno está presenciando algo realmente nunca antes visto, pero así es como se sintió como asistente.
En la Cumbre, Elon Musk calificó a la IA como “la fuerza más disruptiva de la historia”. Irónicamente, en la superficie, esta perturbación de la IA generó un fuerte sentido de unidad entre los diferentes partidos políticos, diplomáticos y corporativos que asistieron.
La pregunta más fundamental que todo el mundo –desde altos funcionarios gubernamentales hasta líderes tecnológicos del sector privado– tenía sobre esta "nueva" tecnología era con respecto a su regulación. ¿Debería regularse? ¿Se puede regular? ¿Cómo sería dicha regulación?
Aunque estaban obligados por el objetivo colectivo de llegar a un consenso sobre la regulación de la IA, las motivaciones de los diferentes grupos para hacerlo parecían variar. En esta etapa latente, algunos podrían argumentar que los diferentes motivos no importan: lo que importa es acordar algún tipo de regulación e implementarla lo más rápido posible. Sin embargo, esto corre el riesgo de sentar bases erróneas que expongan grietas fundamentales más adelante, como el bloqueo de regulaciones particulares por parte de un grupo de partes interesadas, o el desprecio por ciertas preocupaciones debido a la falta de representación de un sector en particular.
Gobernando lo desconocido
Para los representantes políticos, la motivación predominante para la regulación tiende a ser la seguridad nacional, una prioridad comprensible, dada la amenaza que plantea la IA en forma de ciberataques avanzados, armas autónomas, guerra de información y vigilancia.
Los delegados de los 28 países asistentes lidiaron con lo que podría significar la seguridad de la IA en sus diferentes países y culturas, lo que culminó con la firma de la Declaración de Bletchley. Reconocido por muchos como un importante logro diplomático, el objetivo del acuerdo de abordar los riesgos de los modelos fronterizos de IA es ciertamente admirable. Al igual que los esfuerzos del Reino Unido para construir la primera "instalación de pruebas" que probará de forma independiente los modelos, incluidos sus parámetros y datos utilizados, para un uso seguro antes de su lanzamiento.
A diferencia de otras tecnologías, que históricamente han tenido plazos mucho más largos para pasar por estudios antes de ser recibidas por la población general, la IA generativa se ha puesto en manos del público sin el suministro de ninguno de los conocimientos previos o controles habituales. Por lo tanto, estas pruebas previas a la implementación son un paso vital para protegerse contra los riesgos que plantean estos modelos de aprendizaje automático.
En manos de los Gigantes
A primera vista, el deseo de regulación de los gigantes tecnológicos parece coincidir en términos generales con el de los distintos gobiernos. Para algunos, esta disposición de los gigantes a participar en debates sobre regulación puede resultar una sorpresa. ¿No corren el riesgo de que las regulaciones y las limitaciones legales sofoquen la innovación y el crecimiento?
Potencialmente.
Sin embargo, empresas como Open AI y Google parecen tener una preocupación principal diferente: la cuestión del código abierto. Los modelos de aprendizaje automático de código abierto no se pueden rastrear de la misma manera que los de código cerrado, ya que el usuario no necesita crear una cuenta para acceder al software.
Por lo tanto, es mucho más difícil rastrear la actividad hasta un individuo específico en caso de uso indebido. Si bien este es, sin duda, un factor importante, los modelos de código abierto también pueden acelerar la velocidad y el potencial de la innovación al permitir la colaboración y el intercambio de conocimientos. Para los gigantes tecnológicos del sector privado, esto representa un riesgo para su posición como líderes y, por lo tanto, no sorprende que su deseo de regulación parezca estar motivado por una necesidad de exclusividad.
La mayoría olvidada
Los profesores, dependientes y administradores (aquellos con trabajos "cotidianos") quedaron en gran medida fuera de la Cumbre. Irónicamente, este sector más amplio de la sociedad probablemente será el que más sienta el impacto de la IA en su vida cotidiana: el aprendizaje automático avanzado significará que las tareas administrativas se automatizarán cada vez más, las lecciones escolares se complementarán (y tal vez incluso, algún día), reemplazado por chatbots y será posible que los robots apilen los estantes en las tiendas. Como dijo Musk: "La IA pondrá fin al trabajo". Para algunos, esta puede ser una perspectiva emocionante, pero para muchos, la posible pérdida de empleos en un mercado laboral ya tenso y en medio de una crisis actual del costo de vida es una perspectiva aterradora y deprimente.
La seguridad nacional, el potencial de innovación y el debate entre modelos de código abierto y cerrado son temas vitales de discusión. Sin embargo, no se puede olvidar a la mayoría de la población, que se verá afectada por todas estas cosas. También se debe invitar a la mesa a representantes de industrias que no están directamente involucradas en la creación de estos productos y soluciones tecnológicas para discutir la seguridad y la regulación de la IA, de modo que se puedan abordar sus preocupaciones y escuchar sus voces.
El año que viene
Uno de los resultados más importantes de la Cumbre es su propuesta de realizarse anualmente, junto con el evento adicional de medio año más pequeño en la primera mitad de 2024; estos eventos no deben ser solo palabras sin acción continua. Las grandes organizaciones esperan eventos como estos y regulaciones internacionales para guiarlas en su camino hacia un futuro habilitado por la IA.
Si bien muchos de los líderes con los que hablo todavía dudan en aplicar estas tecnologías a gran escala en sus negocios, he visto un acuerdo generalizado en que ahora es el momento de seguir experimentando, de forma controlada. Al identificar casos de uso empresarial muy específicos y comenzar a dar los primeros pasos, podremos asegurarnos de que el resultado de la IA sea confiable. A partir de ahí, la confianza en la IA crecerá, lo que abrirá más oportunidades que permitirán que estas tecnologías cumplan las elevadas ambiciones que prometen.