Por Victor Botev, CTO y cofundador de Iris.ai


Con cualquier tecnología nueva, existen preocupaciones sobre los riesgos asociados con su desarrollo e implementación.

Figuras destacadas en el campo de la IA, incluido Elon Musk, firmaron una carta abierta en la que pedían detener el desarrollo de la IA.

Si bien esto puede haber sido bien intencionado, no es práctico. Simplemente pausar el desarrollo de IA no será suficiente si no logramos desarrollar métodos efectivos para la verificación de hechos, la cita de fuentes y la prevención de la difusión de información errónea. Todos estos son mecanismos esenciales si deseamos generar confianza pública en la IA.

El proceso de desarrollo opaco de OpenAI está envolviendo a la IA en un misterio: nadie sabe lo que sucede detrás de puertas cerradas. Como resultado, esto alarma a muchos comentaristas en el campo.

Muchos signatarios han citado que la inteligencia humana-competitiva de la IA presenta riesgos significativos para la humanidad, lo que llevó a esta carta abierta a solicitar una pausa prolongada de seis meses para crear un entorno regulatorio seguro para el desarrollo de la IA.

Sin embargo, esta interrupción solo conducirá a un mercado de inteligencia artificial injusto, lo que permitirá que las grandes empresas tecnológicas continúen acumulando datos personales de los usuarios para entrenar nuevos modelos, mientras ralentizan el progreso de las nuevas empresas innovadoras.

Entonces, ¿Qué podemos hacer para evitar atrofiar el desarrollo de la IA, mientras la mantenemos segura y generamos confianza pública?

Cómo una pausa creará un desequilibrio en la IA

Desde el principio, empresas como Google y Microsoft han tenido una ventaja financiera sustancial y acceso a infraestructura de datos líder en el mundo. Por lo tanto, pueden darse el lujo de gastar cientos de miles de dólares por día en gastos del centro de datos para obtener una ventaja en IA, creando un desequilibrio competitivo inherente.

A esta asimetría inherente se suma que los modelos de lenguaje grande (LLM) se benefician de un mayor acceso a los datos de capacitación y la entrada del usuario, lo que significa que los hyperscalers con acceso ilimitado a los datos del usuario de otras ramas del negocio y un alto uso del servidor tienen una clara ventaja sobre las nuevas empresas. .

En particular, empresas como Microsoft ya poseen reservas de datos de capacitación y, a medida que se expande la base de usuarios para las primeras aplicaciones de IA generativa, la escala de datos a los que acceden estas organizaciones puede aumentar significativamente.

Pausar el desarrollo de la IA solo profundiza estos obstáculos y afianza aún más la "ventaja de las Big Tech". Crea una dinámica en la que las empresas de Big Tech pueden continuar acumulando los datos que necesitan para entrenar modelos, poniendo a las empresas emergentes a la zaga en la carrera por la innovación en IA.

Transparencia sobre una moratoria de 6 meses

Siendo realistas, no hay ninguna ventaja en pausar el desarrollo de IA. La comunidad de IA aún puede desarrollar tecnología de manera segura y generar confianza en la IA sin pausa, siempre que nos concentremos en la transparencia y la explicabilidad.

La transparencia significa hacer que el desarrollo y la implementación de la IA sean más visibles y comprensibles para el público. Esto incluye a los líderes de IA que ponen a disposición información sobre el desarrollo de algoritmos de IA y cómo se recopilarán y utilizarán sus datos.

Para lograr estos fines, las empresas podrían crear un método estandarizado para documentar los procesos de creación de algoritmos, como libros blancos, o crear un sitio web público donde los usuarios puedan acceder a información sobre las fuentes y la recopilación de datos. Al proporcionar esta información, las personas tienen la tranquilidad de saber qué datos y procesos informan y construyen estos modelos.

Una mayor transparencia abre las cortinas: permite que las personas entiendan los fundamentos de los modelos de IA, al tiempo que alivia sus preocupaciones y brinda una mayor comprensión de por qué los modelos de lenguaje producen las respuestas que producen.

Esto, a su vez, promueve la confianza y la aceptación de las tecnologías de IA en el lugar de trabajo, además de hacer que la comunidad de IA sea responsable del desarrollo seguro.

Cómo mejoramos la explicabilidad de la IA

Los usuarios finales a menudo se preocupan por la inexactitud de los hechos de las respuestas de IA. Necesitamos hacer que el proceso de desarrollo de validación fáctica para las respuestas de los modelos de lenguaje sea abierto.

La forma principal de aumentar la explicabilidad es rastrear hechos y respuestas, de modo que los usuarios puedan evaluar el viaje que ha realizado el modelo para llegar a su resultado.

Las organizaciones pueden producir resultados mejores y más confiables proporcionando citas de fuentes cuando se ha generado un resultado. De manera similar a los estudiantes universitarios que proporcionan notas a pie de página en sus ensayos, los resultados generados por IA deben citar información sobre el origen, la calidad de los datos y el procesamiento de dichos datos.

En este momento, algunos LLM están explicando cómo llegaron a sus propias respuestas, y con la posibilidad de alucinaciones, estas explicaciones no son suficientes.

Más allá de la búsqueda para evitar que los modelos generen fuentes imaginarias, debemos centrarnos en el proceso: ayudar a los modelos a mostrarle a un usuario por qué llegaron a la conclusión que llegaron.

Los modelos de IA y sus desarrolladores comienzan a ser responsables de la precisión y los errores de los hechos. Al ayudar a los usuarios a comprender el funcionamiento interno de la IA generativa, podemos aliviar las preocupaciones relacionadas con la toma de decisiones opaca de la IA y ofrecer un razonamiento detrás de sus respuestas para promover una IA segura.

Al mejorar la explicabilidad y la transparencia, la comunidad de IA puede mejorar orgánicamente la confianza pública y la seguridad en la tecnología de IA, en lugar de una pausa que tiene el potencial para que las grandes empresas de tecnología empujen a las nuevas empresas.