OPENAI

Preço OpenAI

OPENAI
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-27 18:25 (UTC+8)

Em 2026-04-27 18:25, o OpenAI (OPENAI) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, OPENAI esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de OPENAI

Índice P/L0,00
Rendimento de Dividendos (TTM)0,00%
Ações em circulação0,00

Saiba mais sobre OpenAI (OPENAI)

Perguntas Frequentes sobre OpenAI (OPENAI)

Qual é o preço das ações de OpenAI (OPENAI) hoje?

x
OpenAI (OPENAI) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para OpenAI (OPENAI)?

x

Qual é o índice preço-lucro (P/L) de OpenAI (OPENAI)? O que indica este valor?

x

Qual é a capitalização de mercado de OpenAI (OPENAI)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de OpenAI (OPENAI)?

x

Deve comprar ou vender OpenAI (OPENAI) agora?

x

Que fatores podem influenciar o preço das ações da OpenAI (OPENAI)?

x

Como comprar ações da OpenAI (OPENAI)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias OpenAI (OPENAI)

2026-04-27 13:12

OpenAI e AWS para Acolher um Evento para Clientes a 28 de Abril

Notícia do Gate, 27 de Abril — Os executivos da (AWS) e da OpenAI vão acolher um evento para clientes amanhã, 28 de Abril, segundo o The Information. A OpenAI afirmou que agora pode disponibilizar todos os seus produtos aos clientes de qualquer fornecedor de serviços em nuvem.

2026-04-27 06:31

DeepSeek reduz preços do V4-Pro em 75%, corta custos de cache da API para um décimo

Mensagem de Notícias da Gate, 27 de Abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para programadores e reduziu os preços de acerto de cache de entrada em toda a sua gama de APIs para um décimo dos níveis anteriores. O modelo V4, lançado a 25 de Abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei. A DeepSeek disse que o V4-Pro tem melhor desempenho do que outros modelos de código aberto em benchmarks de conhecimento do mundo e fica apenas em segundo lugar atrás do Gemini-Pro-3.1 da Google, um modelo proprietário. A família V4 foi concebida especificamente para agentes de IA a lidar com tarefas complexas além das capacidades de um chatbot. Os custos da API V4-Pro já ficam abaixo dos principais concorrentes ocidentais, com preços de $3.48 por milhão de tokens de saída em comparação com $30 para o GPT-4.5 da OpenAI. A tabela de preços do V4-Flash está em $0.14 por milhão de tokens de entrada e $0.28 por milhão de tokens de saída, o que pode permitir aplicações economicamente eficientes, como rever bases de código inteiras ou documentos regulamentares em solicitações únicas.

2026-04-27 05:17

GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7

Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex ignorou o layout mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos (77.8%), ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6 mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 (input $5, output $30 por milhão de tokens), mas conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.

2026-04-27 03:21

A OpenAI faz parceria com a MediaTek e a Qualcomm para desenvolver um processador de smartphone com IA; a Foxconn Connector deverá iniciar a produção em 2028

Mensagem do Gate News, 27 de abril — A OpenAI está a colaborar com a MediaTek e a Qualcomm para desenvolver processadores para smartphones, de acordo com a análise da cadeia de abastecimento do analista da Tianfeng International Securities, Ming-Chi Kuo. A Foxconn Connector (Luxshare Precision) será o parceiro exclusivo de conceção do sistema e de fabrico, prevendo-se que a produção em massa comece em 2028. Espera-se que as especificações e os fornecedores sejam finalizados até ao final de 2026 ou no primeiro trimestre de 2027. Kuo explicou que a principal razão da OpenAI para entrar no mercado de smartphones é que controlar simultaneamente o sistema operativo e o hardware é essencial para fornecer serviços abrangentes de agentes de IA. Os smartphones são os únicos dispositivos capazes de aceder em tempo real à informação contextual completa dos utilizadores, o que é fundamental para o raciocínio dos agentes de IA. Em vez de utilizarem várias aplicações, os utilizadores irão concretizar tarefas e satisfazer necessidades através dos seus telemóveis — uma mudança fundamental na forma como os smartphones são definidos. Em termos comerciais, a OpenAI poderá agrupar serviços de subscrição com hardware e colaborar com programadores para construir um ecossistema de aplicações de agentes de IA. A conceção do processador dará prioridade à eficiência energética, à gestão da hierarquia de memória e à execução local de modelos mais pequenos, enquanto as tarefas complexas serão delegadas a IA baseada na nuvem. Kuo citou o chip TPU Zebrafish da MediaTek, desenvolvido para a Google, como ponto de referência, salientando que um único chip Zebrafish gera receitas aproximadamente equivalentes a 30 a 40 processadores de smartphone para agentes de IA. Com as remessas globais de smartphones premium a atingirem cerca de 300 a 400 milhões de unidades por ano, os ciclos de substituição de dispositivos poderão tornar-se um novo motor de crescimento tanto para a MediaTek como para a Qualcomm. Para a Luxshare Precision, este projeto oferece a oportunidade de garantir uma vantagem de primeira-mover na produção de smartphones da próxima geração, uma área em que tem lutado para ultrapassar a posição da Foxconn na cadeia de abastecimento da Apple. A iniciativa representa uma mudança significativa na forma como as capacidades de IA são integradas no hardware de consumo, com implicações para a indústria de smartphones mais alargada e para o emergente ecossistema de agentes de IA.

2026-04-27 01:13

Sam Altman Apresenta os Cinco Princípios Operacionais da OpenAI e Sinaliza Possíveis Restrições Futuras às Capacidades dos Modelos para a Segurança

Mensagem da Gate News, 27 de abril — O CEO da OpenAI, Sam Altman, publicou cinco princípios operacionais para a empresa sob a sua assinatura pessoal, sinalizando que a OpenAI poderá restringir o acesso dos utilizadores às capacidades do modelo em determinados períodos para priorizar a segurança. No comunicado, Altman descreveu um potencial cenário futuro em que a empresa teria de "sacrificar algum grau de capacitação em troca de maior resiliência." Altman sublinhou que decisões críticas de IA devem ser tomadas por meio de processos democráticos, e não determinadas apenas por laboratórios de IA. Ele defendeu as recentes compras, em grande escala, de capacidade de computação por parte da OpenAI, a construção de centros de dados globais e os esforços de integração vertical, afirmando que o objetivo é reduzir os custos de IA para tornar a tecnologia acessível a todos. Altman indicou que os governos poderão precisar de explorar novos modelos económicos para garantir a partilha de valor. Ele também destacou um cenário de risco específico: modelos extremamente poderosos poderiam baixar o limiar para criar patogénios novéis, exigindo uma resposta a nível da sociedade. Altman refletiu sobre a hesitação histórica da OpenAI em libertar os pesos do GPT-2, reconhecendo que a cautela, à luz do que se sabe depois, foi excessiva, mas salientou que isso levou à estratégia de implementação iterativa que a OpenAI continua a empregar hoje.

Publicações em alta sobre OpenAI (OPENAI)

CryptoSelf

CryptoSelf

11 minutos atrás
#GateSquareDaily #Deepseek #AIPriceWar #AIAgents A Guerra de Preços em IA Aquece O V4 da DeepSeek reduz o preço do mercado, e os efeitos já se fazem sentir Um novo fronte abriu-se na corrida de IA, e não se trata de benchmarks. É sobre preço. Em 24 de abril de 2026, a DeepSeek, sediada em Hangzhou, lançou versões de pré-visualização da sua família de modelos V4: V4-Pro e V4-Flash. Ambos são de peso aberto, licenciados pelo MIT, e suportam uma janela de contexto de 1 milhão de tokens. A manchete, porém, é o custo. 1. Quão agressivo é o corte? A precificação da API da DeepSeek redefine o piso para modelos de classe frontier: • V4-Flash: $0,14 por milhão de tokens de entrada, $0,28 por milhão de tokens de saída • V4-Pro: $1,74 por milhão de tokens de entrada, $3,48 por milhão de tokens de saída Compare isso com os líderes atuais nos EUA: GPT-5.5 está a um preço de $5 por milhão de tokens de entrada / $30 por milhão de tokens de saída, enquanto Claude Opus 4.6 funciona a $25 por milhão de tokens de saída. Gemini 3.1 Pro situa-se em $2 de entrada / $12 de saída. Em termos simples: o V4-Pro é aproximadamente um sétimo do custo do Claude Opus 4.6 e quase um nono do GPT-5.5 em tokens de saída. O V4-Flash é 12,4 vezes mais barato que o Pro, enquanto fica a apenas 1,6 pontos do SWE-bench Verified. Para os desenvolvedores, essa é a diferença entre um orçamento de IA de 4 meses que dura 7 anos ao mesmo nível de uso. A empresa afirmou que o V4-Pro “iguala modelos líderes em várias áreas” e melhora as capacidades de agentes para tarefas de múltiplas etapas. Testes independentes colocam o V4-Pro com 80,6% no SWE-bench Verified, a 0,2 pontos do Claude Opus 4.6. Ele lidera no LiveCodeBench com 93,5%. 2. Por que isto importa: Três pontos de pressão Adoção Pode Acelerar A $0,28 por milhão de tokens de saída, o V4-Flash torna viáveis casos de uso de alto volume: processamento de documentos, análise de bases de código, ciclos de agentes. Startups que estavam fora do alcance do raciocínio de classe GPT-5 agora podem executar cargas de trabalho de produção por 1/10 do custo. O contexto de 1 milhão de tokens significa repositórios de código inteiros ou processos legais cabem numa única solicitação. Rivais Enfrentam Redução de Margem Laboratórios ocidentais já estão aumentando preços e limitando uso para gerenciar a demanda. A movimentação da DeepSeek força uma escolha: reduzir preços e comprimir margens, ou ceder espaço de mercado aos desenvolvedores. A diferença de preço não é de 10% ou 20% — é de 7 a 9 vezes em tokens de saída. Para empresas que constroem fluxos de trabalho agenticos, o custo por token agora é uma linha de custo, não um erro de arredondamento. Narrativas de IA Ganham Combustível, Incluindo Crypto IA Inferência barata muda a economia dos agentes de IA. Se você consegue rodar um modelo de 1,6T de parâmetros por $3,48 por milhão de tokens de saída, agentes on-chain, redes de inferência descentralizadas e projetos de tokens de IA de repente têm um caminho para custos unitários sustentáveis. O V4 é licenciado pelo MIT e de peso aberto, o que significa que qualquer pessoa com GPUs pode hospedar localmente. Isso elimina o lock-in de fornecedores e alinha-se com a tese de composabilidade do crypto. Hardware também faz parte da história. A Huawei anunciou suporte completo para o V4 em seus chips Ascend 950 no mesmo dia. A DeepSeek validou o modelo tanto em GPUs Nvidia quanto em NPUs Huawei Ascend. A empresa afirmou que os preços do Pro podem cair drasticamente uma vez que os supernós Ascend 950 sejam implantados em escala na segunda metade de 2026. Uma stack de IA doméstica chinesa — modelos mais chips — reduz ainda mais os custos e diminui a dependência de hardware dos EUA. 3. Os Compromissos O V4-Pro não é o melhor em tudo. No SWE-bench Pro, que mede engenharia de software no mundo real, o Opus 4.7 lidera com 64,3% contra 55,4% do V4-Pro. Em tarefas de raciocínio profundo, o GPT-5.5 ainda mantém uma vantagem. A DeepSeek reconhece que “restrições na capacidade de computação de alto nível” estão limitando a taxa de processamento do Pro no lançamento. E há o contexto regulatório: o Departamento de Estado dos EUA alertou globalmente sobre a suposta destilação de modelos de IA dos EUA por parte da China um dia antes do lançamento do V4. OpenAI e Anthropic acusaram a DeepSeek de destilar seus modelos. A DeepSeek não respondeu a essas alegações. 4. O que acontece a seguir 1. Pilotos empresariais: Espere que os CFOs reavaliem modelos de ROI. Se o V4-Pro entregar 95% da capacidade por 10% do custo, “suficiente” será a vitória para muitas tarefas. 2. Momentum de código aberto: Com 1,6T de parâmetros, licença MIT e pesos do Hugging Face, o V4 torna-se o maior modelo aberto disponível. Ajustes finos e implantações privadas ficam mais fáceis. 3. Diversificação de hardware: Suporte completo ao Ascend sinaliza que a stack de IA da China está amadurecendo. Se a Huawei produzir em volume, desenvolvedores chineses poderão construir sem Nvidia. 4. Resposta de preços: Acompanhe a OpenAI, Anthropic e Google. Manter o preço enquanto um modelo aberto atinge 80,6% no SWE-bench a 1/9 do custo não é um equilíbrio estável. Esta é uma guerra de preços, mas também uma mudança de estratégia. O V4 da DeepSeek não afirma superar o GPT-5.5 ou o Claude Opus 4.7 em todos os benchmarks. Ele afirma estar suficientemente próximo, ser aberto e radicalmente mais barato. Nos últimos dois anos, a suposição era que modelos de fronteira requerem orçamentos de fronteira. O V4 rompe esse vínculo. Se a adoção seguir o preço, então a demanda por inferência, uso de agentes e aplicações integradas de IA — incluindo tokens de IA de crypto — tudo se expandirá. Os concorrentes terão que responder em custo, não apenas em capacidade. E a narrativa de que IA avançada deve rodar em chips dos EUA acaba de receber um contraexemplo. A guerra de IA não é mais apenas sobre quem tem o modelo mais inteligente. É sobre quem torna a inteligência acessível.
1
3
0
0