Início Tech Esta semana em IA: OpenAI está no limite

Esta semana em IA: OpenAI está no limite

5
0


Olá, pessoal, bem-vindos ao boletim informativo regular de IA do TechCrunch. Se você quiser isso em sua caixa de entrada todas as quartas-feiras, inscreva-se aqui.

Após um breve hiato, estamos de volta com algumas notas sobre o programa DevDay da OpenAI.

A palestra de ontem de manhã em São Francisco foi notável por seu tom moderado – um contraste com o rah-rah, hipebeast-y endereço do CEO Sam Altman no ano passado. Neste DevDay, Altman não subiu ao palco para apresentar projetos novos e brilhantes. Ele nem sequer apareceu; chefe de produto de plataforma, Olivier Godement, mestre de cerimônias.

No agenda neste primeiro de vários OpenAI DevDays – o próximo será em Londres este mês, seguido pelo último em Cingapura em novembro – houve melhorias na qualidade de vida. A OpenAI lançou uma API de voz em tempo real, bem como ajuste fino de visão, que permite aos desenvolvedores personalizar seu modelo GPT-4o usando imagens. E a empresa lançou a destilação de modelo, que pega um grande modelo de IA como o GPT-4o e o utiliza para ajustar um modelo menor.

O foco restrito do evento não foi inesperado. OpenAI temperado expectativas neste verão, dizendo que o DevDay se concentraria em educar os desenvolvedores, não na apresentação de produtos. No entanto, o que foi omitido na palestra de 60 minutos de terça-feira levantou questões sobre o progresso – e o status – dos incontáveis ​​​​empreendimentos de IA da OpenAI.

Não ouvimos falar sobre o que poderia suceder ao gerador de imagens de quase um ano da OpenAI, DE-E 3nem recebemos uma atualização sobre a visualização limitada de Motor de voza ferramenta de clonagem de voz da empresa. Ainda não há cronograma de lançamento para o gerador de vídeo da OpenAI, Sorae a palavra da mãe é o Media Manager, o aplicativo que a empresa diz estar desenvolvendo para permitir que os criadores controlar como seu conteúdo é usado no treinamento de modelo.

Quando contatado para comentar, um porta-voz da OpenAI disse ao TechCrunch que a OpenAI está “lançando lentamente a visualização (do Voice Engine) para parceiros mais confiáveis” e que o Media Manager “ainda está em desenvolvimento”.

Mas parece claro que o OpenAI está no limite – e já existe há algum tempo.

De acordo com recente relatórios pelo The Wall Street Journal, as equipes da empresa que trabalham no GPT-4o tiveram apenas nove dias para realizar avaliações de segurança. Fortuna relatórios que muitos funcionários da OpenAI pensaram que o1o primeiro modelo de “raciocínio” da empresa, não estava pronto para ser revelado.

À medida que avança em direção a um rodada de financiamento que poderia render até US$ 6,5 bilhões, a OpenAI está envolvida em muitas tortas mal assadas. DALL-3 tem desempenho inferior a geradores de imagens como Fluxo em muitos testes qualitativos; Sora é supostamente tão lento para gerar imagens que a OpenAI está renovando o modelo; e a OpenAI continua a atrasar o lançamento do programa de participação nas receitas para seu mercado de bots, o Loja GPTque inicialmente estava atrelado ao primeiro trimestre deste ano.

Não estou surpreso que a OpenAI agora esteja cercada de esgotamento da equipe e executivo Partidas. Quando você tenta ser um pau para toda obra, você acaba não sendo mestre em nada – e não agradando ninguém.

Notícias

Projeto de lei de IA vetado: O governador da Califórnia, Gavin Newsom, vetou o SB 1047, um projeto de lei de grande repercussão que teria regulamentado o desenvolvimento da IA ​​no estado. Num comunicado, Newsom classificou o projeto de lei como “bem-intencionado”, mas “(não) a melhor abordagem” para proteger o público dos perigos da IA.

Projetos de IA aprovados: Newsom sancionou outras regulamentações de IA – incluindo projetos de lei que tratam de divulgações de dados de treinamento de IA, nudes falsos e muito mais.

Y Combinator criticou: O acelerador de startups Y Combinator está sendo criticado depois de apoiar um empreendimento de IA, PearAI, cujos fundadores admitiram que basicamente clonaram um projeto de código aberto chamado Continue.

O copiloto é atualizado: O assistente Copilot com tecnologia de IA da Microsoft foi reformulado na terça-feira. Agora ele pode ler sua tela, pensar profundamente e falar com você em voz alta, entre outros truques.

Cofundador da OpenAI junta-se à Anthropic: Durk Kingma, um dos cofundadores menos conhecidos da OpenAI, esta semana anunciado ele se juntará à Anthropic. Não está claro no que ele estará trabalhando, no entanto.

Treinamento de IA nas fotos dos clientes: Os Ray-Bans com tecnologia de IA da Meta têm uma câmera na frente para vários recursos de AR. Mas pode acabar sendo uma questão de privacidade – a empresa não diz se planeja treinar modelos com base em imagens de usuários.

Câmera AI do Raspberry Pi: Raspberry Pi, empresa que vende computadores minúsculos e baratos de placa única, lançou a Raspberry Pi AI Camera, um complemento com processamento de IA integrado.

Artigo de pesquisa da semana

As plataformas de codificação de IA capturaram milhões de usuários e atraíram centenas de milhões de dólares de VCs. Mas será que estão a cumprir as suas promessas de aumentar a produtividade?

Talvez não, de acordo com um nova análise da Uplevel, uma empresa de análise de engenharia. A Uplevel comparou dados de cerca de 800 de seus clientes desenvolvedores – alguns dos quais relataram usar a ferramenta de codificação de IA do GitHub, Copilot, e outros não. A Uplevel descobriu que os desenvolvedores que dependiam do Copilot introduziram 41% mais bugs e não eram menos suscetíveis ao esgotamento do que aqueles que não usaram a ferramenta.

Os desenvolvedores demonstraram entusiasmo pelas ferramentas de codificação assistiva baseadas em IA, apesar das preocupações relativas não apenas à segurança, mas também violação de direitos autorais e privacidade. O grande maioria dos desenvolvedores que responderam à última enquete do GitHub disseram que adotaram as ferramentas de IA de alguma forma. As empresas também estão otimistas – a Microsoft informou em abril que o Copilot tinha mais de 50.000 clientes corporativos.

Modelo da semana

IA líquidaum spinoff do MIT, anunciou esta semana sua primeira série de modelos generativos de IA: Liquid Foundation Models, ou LFMs, para abreviar.

“E daí?” você pode perguntar. Os modelos são uma mercadoria – novos são lançados praticamente todos os dias. Bem, os LFMs usam uma arquitetura de modelo inovadora e obtêm pontuações competitivas em uma série de benchmarks do setor.

A maioria dos modelos é conhecida como transformador. Proposto por uma equipe de pesquisadores do Google em 2017, o transformador se tornou a arquitetura dominante do modelo de IA generativa de longe. Transformadores sustentam Sora e o versão mais recente do Stable Diffusionbem como modelos de geração de texto como o da Anthropic Cláudio e do Google Gêmeos.

Mas os transformadores têm limitações. Em particular, não são muito eficientes no processamento e análise de grandes quantidades de dados.

A Liquid afirma que seus LFMs têm um consumo de memória reduzido em comparação com arquiteturas de transformadores, permitindo-lhes receber maiores quantidades de dados no mesmo hardware. “Ao compactar entradas de forma eficiente, os LFMs podem processar sequências mais longas (de dados)”, escreveu a empresa em um comunicado. postagem no blog.

Os LFMs da Liquid estão disponíveis em diversas plataformas de nuvem, e a equipe planeja continuar refinando a arquitetura com lançamentos futuros.

Sacola

Se você piscou, provavelmente não percebeu: uma empresa de IA entrou com pedido de abertura de capital esta semana.

Chamada Cerebras, a startup com sede em São Francisco desenvolve hardware para executar e treinar modelos de IA e compete diretamente com a Nvidia.

Então, como a Cerebras espera competir com a gigante dos chips, que comandado entre 70% e 95% do segmento de chips de IA em julho? No desempenho, diz Cerebras. A empresa afirma que seu principal chip de IA, que vende diretamente e oferece como serviço por meio de sua nuvem, pode superar o hardware da Nvidia.

Mas a Cerebras ainda não traduziu esta alegada vantagem de desempenho em lucros. A empresa teve um prejuízo líquido de US$ 66,6 milhões no primeiro semestre de 2024, por registros na SEC. E no ano passado, a Cerebras relatou um prejuízo líquido de US$ 127,2 milhões sobre receitas de US$ 78,7 milhões.

A Cerebras poderia tentar levantar até US$ 1 bilhão por meio do IPO, de acordo com para Bloomberg. Até o momento, a empresa levantou US$ 715 milhões em capital de risco e foi avaliada em mais de US$ 4 bilhões há três anos.



Source link