Uma coisa é responder aos desafios atuais de TI, outra é propor soluções práticas. Nos últimos meses, várias empresas apresentaram respostas a várias demandas tecnológicas, desde o fornecimento de uma plataforma de modelo fundacional open source para IA até novas políticas de TI como código. Mas o hoje é passageiro e o amanhã vai chegar antes de nos darmos conta. Então, como resolver agora os quebra-cabeças tecnológicos que ainda não se materializaram? Felizmente, temos uma maneira comprovada de nos ajudar a planejar e criar o futuro: comunidades e projetos open source.

Hoje, muitas pessoas olham para a IA/ML como uma tecnologia do futuro. Ainda é incipiente em muitas organizações, com certeza, com estratégias, planejamento e grandes ideias – em vez de implantações e produção no centro das atenções. Mas não é para o mundo do open source. Já estamos pensando em como responder à próxima onda de perguntas baseadas em IA.

Você poderia preencher uma palestra inteira de uma conferência com o que o futuro reserva para a IA, mas quero me concentrar em três áreas distintas que estão sendo abordadas por projetos open source:

  • Democratização
  • Sustentabilidade
  • Confiança

Se você resolver ou pelo menos começar a resolver esses problemas, o restante de uma estratégia de IA poderá começar a parecer um pouco menos complexo e mais alcançável.

Democratização

Precisamos ser muito diretos quando se trata da terminologia de IA: é difícil não ser cético quanto a modelos “abertos” que têm aspas ou talvez um asterisco. Não me interpretem mal: esses modelos são essenciais para o campo da IA, mas não são abertos no sentido de open source. Eles estão abertos para uso – muitos com várias restrições ou regras – mas podem não estar abertos para contribuições, nem têm conjuntos de dados ou pesos de treinamento abertos.

Este é um desafio que enfrentamos hoje e que continuaremos a enfrentar, em parceria com a IBM Research. Juntamente com o InstructLab, a IBM Research está agora aplicando uma licença Apache open source aos modelos de código e linguagem Granite. Isto é muito importante, não apenas porque é um caso único de modelo regido por uma licença open source. É emblemático porque agora qualquer pessoa – por meio do InstructLab – pode contribuir com estes modelos para aprimorá-los.

Mais do que isso, você pode realmente fazer de um modelo de IA o SEU modelo de IA. Você quer construir um chatbot focado na pesca? Vá em frente, contribua de volta, vamos fazer o ChatGoFish. Quer concentrar um bot de solução de problemas em uma tecnologia de nicho super específica? Faça isso com o InstructLab. As possibilidades tornam-se ilimitadas quando você realmente aplica princípios open source a modelos de IA, e estamos aqui para isso.

Sustentabilidade

OK, vamos direto ao ponto: o treinamento de modelos e a inferência de IA exigem muita energia. Até 2026, a Agência Internacional de Energia espera que a demanda por energia para a indústria de IA cresça 10 vezes. Então, o que isso significa além de os mineradores de criptomoedas terem um rival na indústria de energia?

Significa que precisamos de trazer software – software open source – para ajudar a resolver este desafio. Começar a usar IA quase sempre exigirá muita energia, mas podemos ser inteligentes quanto a isso. Já tomamos medidas nesse sentido em relação à TI empresarial moderna por meio do projeto Kepler, que ajuda a fornecer insights sobre a pegada de carbono e a eficiência energética de aplicações e infraestruturas nativas da nuvem.

Mas e se pudermos, através do poder da inovação aberta, transformar o Kepler numa ferramenta que também pode observar o consumo de energia das GPUs, e não apenas das CPUs?

Estamos fazendo exatamente isso, usando o Kepler para medir o consumo de energia de modelos de ML para treinamento e inferência. Isso fornece uma visão completa do consumo de energia da TI tradicional e da sua pegada de IA – mais uma vez proporcionada pelo código open source

Confiança

Como qualquer nova tecnologia interessante, precisamos ser capazes de proteger e reforçar com eficácia a pegada de segurança das cargas de trabalho, modelos e plataformas de IA. Inovação sem segurança é simplesmente “risco”, algo que tanto as empresas como as comunidades open source desejam minimizar.

Para software, a cadeia de fornecimento e a proveniência são fundamentais para proporcionar uma experiência mais segura. Isso significa ter uma compreensão clara de onde vêm os bits, quem os programou e quem os acessou antes que se tornassem recursos em produção. O projeto sigstore ajuda a provar a veracidade do código open source usado em todos os estágios do desenvolvimento de aplicações.

Agora, precisamos aplicar esse mesmo nível de previsão, disciplina e rigor aos modelos de IA – que é o que a comunidade open source está fazendo ao trabalhar para criar uma Lista de Materiais de IA, que oferece mais garantias em torno da construção de modelos usando nossas ferramentas seguras da cadeia de suprimentos.

Andando de mãos dadas com a segurança está o conceito de confiança – como você e suas organizações sabem que podem confiar nos modelos de IA e nas cargas de trabalho nos quais estão apostando no futuro? É aqui que entra o TrustyAI. Ele ajuda uma equipe de tecnologia a compreender as justificativas dos modelos de IA, bem como sinalizar comportamentos potencialmente problemáticos.

Mediante estes exemplos, espero que você possa ver como o código aberto está funcionando para trazer maior acessibilidade, mais sustentabilidade e maior segurança e confiança à IA para o futuro. Tenho orgulho de fazer parte na vanguarda na condução de todas essas tecnologias, nenhuma delas possível sem a colaboração da comunidade de código aberto que estimula novas formas de pensar.