Bate-papo GPT 4
LarLar > blog > Bate-papo GPT 4

Bate-papo GPT 4

Mar 10, 2023

A OpenAI acaba de anunciar o GPT-4. O futuro pode não estar aqui ainda, mas está muito próximo. Este é realmente o momento decisivo para a IA?

GPT-4 é a próxima versão do Large Language Model criado pela OpenAI. O GPT-3 criou bastante confusão e o GPT-4 parece que vai continuar a comoção. O que torna o GPT-4 diferente do 3 é que agora ele é "multimodal" - funcionará com imagens e texto.

OpenAI parece ser realista sobre sua nova criação:

"... embora menos capaz que os humanos em muitos cenários do mundo real, exibe desempenho de nível humano em vários benchmarks profissionais e acadêmicos."

Nesses benchmarks, ele se sai muito melhor que o GPT-3:

"Por exemplo, ele passa em um exame de barra simulado com uma pontuação em torno dos 10% melhores candidatos; em contraste, a pontuação do GPT-3.5 ficou em torno dos 10% inferiores."

Nenhum treinamento específico para os exames foi fornecido e isso é uma indicação do que o GPT-4 sabe sobre o mundo. Isso é uma conquista, visto que ambos os sistemas usam a mesma abordagem geral. No entanto, a OpenAI reconhece que, em um cenário mais geral, a diferença é sutil:

"Em uma conversa casual, a distinção entre GPT-3.5 e GPT-4 pode ser sutil. A diferença aparece quando a complexidade da tarefa atinge um limite suficiente - GPT-4 é mais confiável, criativo e capaz de lidar com muito mais instruções diferenciadas do que GPT-3.5."

Isso não é muito surpreendente - um especialista falando sobre coisas cotidianas não revela muito sobre sua especialidade.

Do ponto de vista da OpenAi, um passo importante é a capacidade de prever o quanto um modelo será melhor após uma determinada quantidade de treinamento.

E a entrada visual? GPT 4 pode aceitar prompts em texto ou imagens ou uma mistura. A partir dos exemplos dados, parece impressionante:

Painel 1: Um smartphone com um conector VGA (um grande conector azul de 15 pinos normalmente usado para monitores de computador) conectado à porta de carregamento.

Painel 2: A embalagem do adaptador "Lightning Cable" com a imagem de um conector VGA.

Painel 3: Close do conector VGA com um pequeno conector Lightning (usado para carregar iPhones e outros dispositivos Apple) no final.

O humor nesta imagem vem do absurdo de conectar um conector VGA grande e desatualizado a uma pequena e moderna porta de carregamento de smartphone.

Além deste exemplo, o OpenAI não está revelando muito sobre os aspectos de visão do GPT 4, que não serão disponibilizados até mais tarde. Se o comportamento do PaLM LLM do Google é algo a se seguir, essa pode ser a parte mais interessante do GPT 4.

Obviamente, basear-se no mesmo tipo de modelo GPT 4 tem todos os problemas do GPT 3 e similares:

"Apesar de suas capacidades, o GPT-4 tem limitações semelhantes aos modelos GPT anteriores. Mais importante, ainda não é totalmente confiável (ele "alucina" fatos e comete erros de raciocínio). Muito cuidado deve ser tomado ao usar saídas de modelos de linguagem, particularmente em contextos de alto risco, com o protocolo exato (como revisão humana, fundamentação com contexto adicional ou evitar completamente usos de alto risco) correspondendo às necessidades de um caso de uso específico."

Apesar de tentar manter as saídas corretas, esta é uma limitação real do GPT 4 e modelos similares. É difícil para ele evitar selecionar coisas que estão erradas, mas estatisticamente plausíveis. Este é o desafio que os modelos posteriores terão de enfrentar se quiserem ser úteis fora das situações em que estar errado é simplesmente divertido ou sem importância.

A OpenAI planeja disponibilizar o GPT4 o mais rápido possível:

Os assinantes do ChatGPT Plus terão acesso GPT-4 em chat.openai.com com um limite de uso. Ajustaremos o limite de uso exato dependendo da demanda e do desempenho do sistema na prática, mas esperamos ter uma capacidade severamente limitada (embora tenhamos que aumentar e otimizar nos próximos meses).

Há também uma API que cobrará na faixa de US$ 0,03 por 1 mil tokens de prompt e US$ 0,06 por 1 mil tokens completos.