Com ChatGPT, Google Gemini e Apple Intelligence trazendo novos recursos de IA para telefones e computadores, está mudando a forma como as pessoas interagem com a tecnologia. De repente, as pessoas são capazes de ter conversas significativas com máquinas, o que significa que você pode fazer perguntas a um chatbot de IA em linguagem natural e ele responderia com respostas novas, como um ser humano.
Mas esse aspecto dos chatbots de IA é apenas uma parte do cenário da IA. Claro, tendo ChatGPT ajuda a fazer sua lição de casa ou fazer com que Midjourney crie imagens fascinantes de mechs com base no país de origem é legal, mas o potencial da IA generativa poderia remodelar completamente as economias. Isso pode valer a pena US$ 4,4 trilhões para a economia global anualmentede acordo com o McKinsey Global Institute, e é por isso que você deve esperar ouvir cada vez mais sobre inteligência artificial.
Ele está aparecendo em uma variedade estonteante de produtos – uma lista curta inclui Gemini do Google, Copilot da Microsoft, Claude da Anthropic, a ferramenta de pesquisa Perplexity AI e gadgets da Humane and Rabbit. Você pode ler nossas análises e avaliações práticas desses e de outros produtos, juntamente com notícias, explicadores e postagens de instruções, em nosso hub AI Atlas.
À medida que as pessoas se habituam a um mundo interligado com a IA, novos termos surgem por todo o lado. Então, se você está tentando parecer inteligente enquanto bebe ou impressionar em uma entrevista de emprego, aqui estão alguns termos importantes de IA que você deve conhecer.
Este glossário é atualizado regularmente.
inteligência geral artificial, ou AGI: Um conceito que sugere uma versão mais avançada da IA do que a que conhecemos hoje, que pode executar tarefas muito melhor do que os humanos, ao mesmo tempo que ensina e desenvolve as suas próprias capacidades.
agente: Sistemas ou modelos que exibem agência com a capacidade de realizar ações de forma autônoma para atingir um objetivo. No contexto da IA, um modelo agente pode atuar sem supervisão constante, como um carro autônomo de alto nível. Ao contrário de um framework “agentivo”, que fica em segundo plano, os frameworks agentivos ficam na frente, focando na experiência do usuário.
Ética da IA: Princípios que visam impedir que a IA prejudique os seres humanos, alcançados através de meios como determinar como os sistemas de IA devem recolher dados ou lidar com preconceitos.
Segurança de IA: Um campo interdisciplinar que se preocupa com os impactos de longo prazo da IA e como ela poderia progredir repentinamente para uma superinteligência que poderia ser hostil aos humanos.
algoritmo: uma série de instruções que permitem a um programa de computador aprender e analisar dados de uma maneira específica, como reconhecer padrões, para então aprender com eles e realizar tarefas por conta própria.
alinhamento: Ajustando uma IA para produzir melhor o resultado desejado. Isso pode se referir a qualquer coisa, desde moderar conteúdo até manter interações positivas com humanos.
antropomorfismo: Quando os humanos tendem a dar aos objetos não humanos características humanas. Na IA, isso pode incluir acreditar que um chatbot é mais humano e consciente do que realmente é, como acreditar que está feliz, triste ou até mesmo senciente.
inteligência artificial ou IA: O uso da tecnologia para simular a inteligência humana, seja em programas de computador ou na robótica. Campo da ciência da computação que visa construir sistemas que possam realizar tarefas humanas.
agentes autônomos: Um modelo de IA que possui recursos, programação e outras ferramentas para realizar uma tarefa específica. Um carro autônomo é um agente autônomo, por exemplo, porque possui informações sensoriais, GPS e algoritmos de direção para navegar sozinho na estrada. Pesquisadores de Stanford demonstraram que os agentes autónomos podem desenvolver as suas próprias culturas, tradições e linguagem partilhada.
viés: Em relação a modelos de linguagem grandes, erros resultantes dos dados de treinamento. Isto pode resultar na atribuição falsa de certas características a certas raças ou grupos com base em estereótipos.
bot de bate-papo: Um programa que se comunica com humanos por meio de texto que simula a linguagem humana.
Bate-papoGPT: Um chatbot de IA desenvolvido pela OpenAI que usa tecnologia de modelo de linguagem grande.
computação cognitiva: Outro termo para inteligência artificial.
aumento de dados: Remixar dados existentes ou adicionar um conjunto mais diversificado de dados para treinar uma IA.
aprendizagem profunda: um método de IA e um subcampo de aprendizado de máquina que usa vários parâmetros para reconhecer padrões complexos em imagens, sons e texto. O processo é inspirado no cérebro humano e utiliza redes neurais artificiais para criar padrões.
difusão: um método de aprendizado de máquina que pega um dado existente, como uma foto, e adiciona ruído aleatório. Os modelos de difusão treinam suas redes para reprojetar ou recuperar essa foto.
comportamento emergente: quando um modelo de IA exibe habilidades não intencionais.
aprendizagem ponta a ponta, ou E2E: um processo de aprendizado profundo no qual um modelo é instruído a executar uma tarefa do início ao fim. Ele não é treinado para realizar uma tarefa sequencialmente, mas aprende com as entradas e resolve tudo de uma vez.
considerações éticas: Uma consciência das implicações éticas da IA e das questões relacionadas com a privacidade, utilização de dados, justiça, utilização indevida e outras questões de segurança.
Xingamento: Também conhecida como decolagem rápida ou decolagem difícil. O conceito de que se alguém construir um AGI já pode ser tarde demais para salvar a humanidade.
redes adversárias generativas, ou GANs: Um modelo generativo de IA composto por duas redes neurais para gerar novos dados: um gerador e um discriminador. O gerador cria novo conteúdo e o discriminador verifica se é autêntico.
IA generativa: uma tecnologia de geração de conteúdo que usa IA para criar texto, vídeo, código de computador ou imagens. A IA é alimentada com grandes quantidades de dados de treinamento, encontra padrões para gerar suas próprias respostas novas, que às vezes podem ser semelhantes ao material de origem.
Google Gêmeos: um chatbot de IA do Google que funciona de forma semelhante ao ChatGPT, mas extrai informações da web atual, enquanto o ChatGPT está limitado a dados até 2021 e não está conectado à Internet.
guarda-corpos: políticas e restrições impostas aos modelos de IA para garantir que os dados sejam tratados de forma responsável e que o modelo não crie conteúdo perturbador.
alucinação: Uma resposta incorreta da IA. Pode incluir IA generativa produzindo respostas incorretas, mas declaradas com confiança, como se estivessem corretas. As razões para isso não são totalmente conhecidas. Por exemplo, ao perguntar a um chatbot de IA: “Quando Leonardo da Vinci pintou a Mona Lisa?” isto pode responder com uma afirmação incorreta dizendo: “Leonardo da Vinci pintou a Mona Lisa em 1815”, ou seja, 300 anos depois de ela ter sido realmente pintada.
inferência: O processo que os modelos de IA usam para gerar texto, imagens e outros conteúdos sobre novos dados, por inferir a partir de seus dados de treinamento.
modelo de linguagem grande, ou LLM: um modelo de IA treinado em grandes quantidades de dados de texto para compreender a linguagem e gerar conteúdo novo em linguagem semelhante à humana.
aprendizado de máquina ou ML: um componente de IA que permite que os computadores aprendam e obtenham melhores resultados preditivos sem programação explícita. Pode ser acoplado a conjuntos de treinamento para gerar novos conteúdos.
Microsoft Bing: um mecanismo de pesquisa da Microsoft que agora pode usar a tecnologia que alimenta o ChatGPT para fornecer resultados de pesquisa baseados em IA. É semelhante ao Google Gemini por estar conectado à internet.
IA multimodal: um tipo de IA que pode processar vários tipos de entradas, incluindo texto, imagens, vídeos e fala.
processamento de linguagem natural: Um ramo da IA que utiliza aprendizagem automática e aprendizagem profunda para dar aos computadores a capacidade de compreender a linguagem humana, muitas vezes utilizando algoritmos de aprendizagem, modelos estatísticos e regras linguísticas.
rede neural: um modelo computacional que se assemelha à estrutura do cérebro humano e tem como objetivo reconhecer padrões em dados. Consiste em nós interconectados, ou neurônios, que podem reconhecer padrões e aprender com o tempo.
sobreajuste: Erro no aprendizado de máquina, onde funciona muito próximo dos dados de treinamento e só pode ser capaz de identificar exemplos específicos nesses dados, mas não em dados novos.
clipes de papel: A teoria do Paperclip Maximiser, cunhada pelo filósofo Nick Boström da Universidade de Oxford, é um cenário hipotético onde um sistema de IA criará tantos clipes de papel literais quanto possível. No seu objetivo de produzir a quantidade máxima de clipes de papel, um sistema de IA hipoteticamente consumiria ou converteria todos os materiais para atingir o seu objetivo. Isto poderia incluir o desmantelamento de outras máquinas para produzir mais clipes de papel, máquinas que poderiam ser benéficas para os seres humanos. A consequência não intencional deste sistema de IA é que ele pode destruir a humanidade no seu objectivo de fazer clipes de papel.
parâmetros: Valores numéricos que fornecem estrutura e comportamento ao LLM, permitindo-lhe fazer previsões.
Perplexidade: O nome de um chatbot e mecanismo de pesquisa com tecnologia de IA de propriedade da Perplexity AI. Ele usa um grande modelo de linguagem, como aqueles encontrados em outros chatbots de IA, para responder perguntas com respostas novas. Sua conexão com a Internet aberta também permite fornecer informações atualizadas e obter resultados de toda a web. Perplexity Pro, um nível pago do serviço, também está disponível e usa outros modelos, incluindo GPT-4o, Claude 3 Opus, Mistral Large, o LlaMa 3 de código aberto e seu próprio Sonar 32k. Os usuários Pro também podem fazer upload de documentos para análise, gerar imagens e interpretar código.
incitar: A sugestão ou pergunta que você insere em um chatbot de IA para obter uma resposta.
encadeamento imediato: A capacidade da IA de usar informações de interações anteriores para colorir respostas futuras.
papagaio estocástico: Uma analogia dos LLMs que ilustra que o software não tem uma compreensão mais ampla do significado por trás da linguagem ou do mundo ao seu redor, independentemente de quão convincente o resultado pareça. A frase refere-se a como um papagaio pode imitar palavras humanas sem compreender o significado por trás delas.
transferência de estilo: A capacidade de adaptar o estilo de uma imagem ao conteúdo de outra, permitindo que uma IA interprete os atributos visuais de uma imagem e os utilize em outra. Por exemplo, pegar o autorretrato de Rembrandt e recriá-lo no estilo de Picasso.
temperatura: parâmetros definidos para controlar o quão aleatória é a saída de um modelo de linguagem. Uma temperatura mais alta significa que o modelo corre mais riscos.
geração de texto para imagem: Criação de imagens com base em descrições textuais.
fichas: Pequenos pedaços de texto escrito que os modelos de linguagem de IA processam para formular suas respostas às suas solicitações. Um token equivale a quatro caracteres em inglês, ou cerca de três quartos de uma palavra.
dados de treinamento: os conjuntos de dados usados para ajudar os modelos de IA a aprender, incluindo texto, imagens, código ou dados.
modelo de transformador: uma arquitetura de rede neural e um modelo de aprendizado profundo que aprende o contexto rastreando relacionamentos em dados, como frases ou partes de imagens. Assim, em vez de analisar uma frase, uma palavra por vez, ele pode olhar a frase inteira e compreender o contexto.
Teste de Turing: Nomeado em homenagem ao famoso matemático e cientista da computação Alan Turing, ele testa a capacidade de uma máquina de se comportar como um ser humano. A máquina é aprovada se um humano não conseguir distinguir a resposta da máquina da de outro humano.
IA fraca, também conhecida como IA estreita: IA que está focada em uma tarefa específica e não consegue aprender além de seu conjunto de habilidades. A maior parte da IA atual é uma IA fraca.
aprendizagem de tiro zero: um teste no qual um modelo deve concluir uma tarefa sem receber os dados de treinamento necessários. Um exemplo seria reconhecer um leão sendo treinado apenas em tigres.