O ChatGPT deu o que falar nos últimos meses e movimentou o mercado de Inteligência Artificial (IA). A OpenAI, empresa de pesquisa e implantação de inteligência artificial (IA), anunciou em novembro o lançamento oficial do ChatGPT, um novo modelo de IA conversacional. Segundo a OpenAI, o diálogo proporcionado por esta plataforma permite ao ChatGPT “responder a questões de seguimento, admitir os seus erros, contestar premissas incorretas e rejeitar pedidos inapropriados”.
Desde o seu lançamento, a mídia social está repleta de discussões sobre as possibilidades – e perigos – dessa inovação. Os questionamentos vão desde sua capacidade de depurar código até seu potencial para escrever redações para estudantes universitários. A Gartner entrevistou Bern Elliot, VP Analyst do Gartner, para discutir as implicações mais amplas dessa inovação e as etapas que os líderes de dados e análises (D&A) devem seguir para garantir o uso responsável de tais ferramentas.
P: Por que o ChatGPT está gerando tanto burburinho e o que o torna diferente das inovações anteriores em IA de conversação?
R: O ChatGPT é a tempestade perfeita de dois tópicos atuais de IA ‘quentes’: chatbots e GPT3. Juntos, eles oferecem um método maravilhosamente intrigante de interagir e produzir conteúdo que soa incrivelmente humano. Cada um é o resultado de melhorias separadas e
significativas nos últimos cinco anos em suas respectivas tecnologias.
Os chatbots permitem a interação de uma maneira conversacional aparentemente ‘inteligente’, enquanto o GPT3 produz uma saída que parece ter ‘entendido’ a pergunta, o conteúdo e o contexto. Dessa forma, juntos, eles criam um efeito de vale misterioso de ‘É humano ou é um computador? Ou é um computador parecido com um humano?’ A interação às vezes é bem-humorada, às vezes profunda e às vezes perspicaz.
Infelizmente, o conteúdo às vezes também é incorreto e o conteúdo nunca é baseado em uma compreensão ou inteligência humana. Ou seja, o problema pode estar nos termos ‘compreender’ e ‘inteligente’. Esses são termos carregados de significado implicitamente humano; portanto, quando aplicados a um algoritmo, podem resultar em graves mal-entendidos. A perspectiva mais útil é ver chatbots e modelos de linguagem grande (LLM) como GPT como ferramentas potencialmente úteis para realizar tarefas específicas, e não como truques de salão. O sucesso depende da identificação dos aplicativos para essas tecnologias que oferecem benefícios significativos para a organização.
P: Quais são os possíveis casos de uso do ChatGPT, especialmente nas empresas?
R: Em alto nível, os chatbots, ou assistentes de conversação, fornecem uma interação selecionada com uma fonte de informação. Os próprios chatbots têm muitos casos de uso, desde o atendimento ao cliente até o auxílio aos técnicos na identificação de problemas.
Em alto nível, o ChatGPT é um caso de uso específico do chatbot em que ele é usado para interagir (bate-papo) ou ‘conversar’ com uma fonte de informações do GPT. Nesse caso, a fonte de informações GPT é treinada para um domínio específico pela OpenAI. Assim, os dados de treinamento usados no modelo determinam como as perguntas serão respondidas. No entanto, conforme observado anteriormente, a capacidade da GPT de gerar informações falsas de forma imprevisível significa que as informações só podem ser usadas em situações em que os erros podem ser tolerados ou corrigidos.
Existem inúmeros casos de uso para modelos de fundação, como GPT, em domínios que incluem visão computacional, engenharia de software e pesquisa e desenvolvimento científicos. Por exemplo, modelos de fundação têm sido usados para criar imagens a partir de texto; gerar, revisar e auditar código de linguagem natural, incluindo contratos inteligentes. Além disso, esses modelos chegaram até a área da saúde para criar novos medicamentos e decifrar sequências genômicas para classificação de doenças.
P: Quais são as preocupações éticas em torno do ChatGPT e outros modelos de IA semelhantes?
R: Os modelos básicos de IA, como o GPT, representam uma grande mudança no campo da IA . Eles oferecem benefícios exclusivos, como grandes reduções no custo e no tempo necessários para criar um modelo específico de domínio. No entanto, eles também representam riscos e preocupações éticas incluindo aqueles associados a:
Complexidade: Grandes modelos envolvem bilhões, ou mesmo trilhões, de parâmetros. Esses modelos são impraticavelmente grandes para treinar para a maioria das organizações, devido aos recursos de computação necessários, o que pode torná-los caros e hostis ao meio ambiente.
Concentração de poder: Esses modelos foram construídos principalmente pelas maiores empresas de tecnologia, com grandes investimentos em P&D e significativo talento em IA. Isso resultou em uma concentração de poder em algumas entidades grandes e ricas, o que pode criar um desequilíbrio significativo no futuro.
Uso indevido potencial: os modelos de fundação reduzem o custo de criação de conteúdo, o que significa que fica mais fácil criar deepfakes que se assemelham muito ao original. Isso inclui tudo, desde representação de voz e vídeo até arte falsa, bem como ataques direcionados. As sérias preocupações éticas podem prejudicar reputações ou causar conflitos políticos.
Natureza de caixa preta: esses modelos ainda requerem treinamento cuidadoso e podem fornecer resultados inaceitáveis devido à sua natureza de caixa preta. Muitas vezes não está claro a quais modelos de base de fatos estão atribuindo respostas, o que pode propagar o viés downstream nos conjuntos de dados. A homogeneização de tais modelos pode levar a um único ponto de falha.
Propriedade intelectual: podemos treinar o modelo em um corpus de trabalhos criados e ainda não está claro qual pode ser o precedente legal para a reutilização desse conteúdo. Ou seja, se ele foi derivado da propriedade intelectual de terceiros.
P: Como os líderes de D&A podem integrar modelos de fundação de IA em suas organizações de maneira ética?
R: Comece com casos de uso de processamento de linguagem natural (NLP), como classificação, resumo e geração de texto para cenários não voltados para o cliente. Depois, escolha modelos pré-treinados específicos de tarefas para evitar customização e treinamento caros. Os casos de uso em que a saída é revisada por humanos são os preferidos. Assim, crie um documento de estratégia que descreva os benefícios, riscos, oportunidades e roteiro de implantação para modelos de base de IA como GPT. Isso ajudará a determinar se os benefícios superam os riscos para casos de uso específicos.
Use APIs baseadas em nuvem para consumir modelos e escolha o menor modelo que fornecerá precisão e desempenho necessários. Reduzindo assim a complexidade operacional, e o consumo de energia, otimizando o custo total de propriedade. Além disso, priorize os fornecedores que promovem a implantação responsável de modelos publicando diretrizes de uso, documentando vulnerabilidades conhecidas e divulgando proativamente comportamentos nocivos e cenários de uso indevido.
Fonte: Gartner
- Como ter resultados de negócios bem-sucedidos em 2024 - 21 de dezembro de 2023
- Três aspectos das organizações financeiras que usam IA - 7 de dezembro de 2023
- Investimento na Nuvem: uma necessidade comercial até 2028 - 30 de novembro de 2023