Brasileiros treinam inteligência artificial para evitar informações que ofereçam risco

Nos últimos meses, o uso de inteligência artificial expandiu-se rapidamente, integrando-se cada vez mais ao cotidiano das pessoas. Contudo, surgem preocupações sobre a possibilidade de promover comportamentos inadequados.

Em meio a este cenário, um dedicado grupo de brasileiros tem se destacado por sua atuação na análise e correção de respostas fornecidas por IA. Eles criam e avaliam prompts, categorizando as respostas para mitigar riscos potenciais aos usuários.

Esses profissionais atuam com o objetivo de garantir que as informações emitidas por chatbots sejam precisas e livres de juízo de valor, especialmente em temas delicados, como o nazismo. O trabalho é financiado pela Outlier, uma intermediária que conecta colaboradores globais a grandes empresas de tecnologia.

Essa iniciativa surgiu após incidentes nos quais a IA deu conselhos inadequados, como sugerir “beber até cair” para se divertir.

Desafios e estratégias

Em situações mais críticas, a inteligência artificial já ofereceu respostas preocupantes, como advogar o consumo de pedras ou o uso de cola para unir pizza e queijo.

Além disso, houve casos em que a IA, ao ser questionada no Brasil, distorceu informações sobre as urnas eletrônicas e o resultado eleitoral de 2022.

Esses eventos destacam a necessidade de supervisão humana contínua para evitar a disseminação de informações falsas.

Supervisionando a tecnologia

A Scale AI, responsável pela Outlier, enfatiza a importância de treinar modelos de IA generativa para prevenir conteúdos prejudiciais. Apesar das salvaguardas, usuários conseguem manipular sistemas reformulando perguntas de modo a driblar as respostas padrão, expondo falhas na segurança.

O trabalho dos brasileiros é essencial para assegurar que as inteligências artificiais permaneçam seguras e confiáveis. À medida que a tecnologia avança, a colaboração humana na supervisão e correção de erros se faz ainda mais necessária.

O compromisso com um desenvolvimento seguro da IA é fundamental para evitar a propagação de conteúdos danosos e preservar a integridade das informações.

O post Brasileiros treinam inteligência artificial para evitar informações que ofereçam risco apareceu primeiro em Capitalist.

Adicionar aos favoritos o Link permanente.