Google I/O
Google I/O 2025 amplia Gemini 2.5 e produtos de IA
Google I/O 2025 coloca Gemini 2.5 no centro de Search, apps, ferramentas de desenvolvimento, mídia generativa e agentes para consumidores e empresas.
Ler artigoArtigos
Um índice direto para conteúdos que explicam como planejamento, sistemas, automação, visibilidade e IA aplicada entram em decisões reais de negócio.
Mostrando 51-60 de 467 artigos.
Google I/O
Google I/O 2025 coloca Gemini 2.5 no centro de Search, apps, ferramentas de desenvolvimento, mídia generativa e agentes para consumidores e empresas.
Ler artigoDesenvolvimento
GitHub amplia o Copilot com agente de código capaz de receber issues, trabalhar em ambiente isolado e abrir pull requests para revisão humana.
Ler artigoCloud Native
Kubernetes 1.33 Octarine chega com 64 melhorias, incluindo recursos estáveis, betas e alfas que consolidam operação, storage e segurança.
Ler artigoLinux
Canonical lança Ubuntu 25.04 Plucky Puffin com kernel atualizado, GNOME 48, melhorias de instalador e avanços para desktops, servidores e nuvem.
Ler artigoInteligência Artificial
OpenAI lança o3 e o4-mini como modelos de raciocínio capazes de usar ferramentas, analisar imagens e sustentar tarefas mais longas na plataforma.
Ler artigoLinux
A versão 42 torna KDE Plasma Desktop uma Edition, adiciona COSMIC como opção alternativa e apresenta uma nova interface de instalação mais simples.
Ler artigoModelos abertos
Meta lança Llama 4 Scout e Llama 4 Maverick com arquitetura MoE, multimodalidade nativa e distribuição aberta para desenvolvedores.
Ler artigoLinux
O Linux 6.14 foi publicado por Linus Torvalds após uma semana final calma, com pequenos ajustes e uma base que deve alimentar distribuições e suporte a hardware em 2025.
Ler artigoInfraestrutura de IA
A NVIDIA apresenta Blackwell Ultra, GB300 NVL72, HGX B300 NVL16 e o framework aberto Dynamo para escalar inferência de modelos de raciocínio em fábricas de IA.
Ler artigoOpen models
O Gemma 3 chega em tamanhos de 1B a 27B parâmetros, com suporte multimodal, contexto longo, versões quantizadas e foco em execução local e single-accelerator.
Ler artigo