Web Summit Lisboa 2025 novembro 11, 2025
O futuro da geração de vídeo com IA
A nova fronteira da criação visual
No Web Summit Lisboa 2025, Mateusz Malinowski, pesquisador do Google DeepMind, apresentou o MARE, um modelo de inteligência artificial que cria vídeos inteiros com consistência temporal, física e narrativa.
O painel “MARE and System One” mostrou como a geração de vídeo com IA está saindo da fase experimental e entrando em escala global.
Malinowski explicou que o MARE usa uma arquitetura multimodal capaz de compreender texto, imagem, som e movimento ao mesmo tempo. Dessa forma, o sistema não apenas interpreta prompts, mas entende contextos visuais e prevê interações entre elementos dentro de uma cena.
Como o MARE transforma a criação de vídeo
O principal diferencial do modelo é a coerência entre os frames. Enquanto ferramentas anteriores criavam vídeos curtos e fragmentados, o MARE mantém continuidade de luz, sombra, profundidade e perspectiva por longos períodos.
Durante a demonstração, Malinowski exibiu cenas dinâmicas — esportes, movimentos de câmera e ambientes urbanos — com precisão física e naturalidade.
Ele afirmou que o objetivo é fazer com que cada vídeo pareça realmente filmado, e não apenas gerado por máquina.
Além disso, o MARE aprende estilos narrativos. Ele consegue imitar linguagens visuais de diretores, anúncios ou videoclipes, conectando a criatividade humana à automação inteligente.
Aplicações práticas e desafios
As possibilidades são amplas. O cinema, a educação e o marketing já aparecem entre as áreas mais promissoras. Professores poderão usar vídeos realistas para ensinar fenômenos complexos, e marcas poderão criar campanhas personalizadas com base em texto e dados em tempo real.
Por outro lado, Malinowski alertou para os riscos. Ele defendeu a criação de marcas d’água digitais que identifiquem o que foi produzido por IA, reforçando a transparência e a confiança no conteúdo visual.
Segundo ele, o poder dessa tecnologia exige governança e ética.
A integração com o System One
O MARE faz parte de um projeto maior do DeepMind, chamado System One, que busca integrar diferentes inteligências artificiais em um mesmo ecossistema.
O objetivo é criar sistemas que aprendem continuamente, trocando informações entre modelos de texto, som e vídeo.
Malinowski descreveu essa integração como um “ecossistema cognitivo” no qual cada modelo contribui para ampliar a compreensão global do mundo.
Essa abordagem transforma a IA em uma plataforma que aprende com o próprio uso.
O que podemos aprender com isso
A palestra de Mateusz Malinowski reforçou que a geração de vídeo com IA deixou de ser um experimento e já funciona como base para novas indústrias criativas.
Assim como os LLMs mudaram a forma de escrever e os modelos de imagem transformaram a publicidade, os sistemas de vídeo estão prontos para redefinir o conteúdo visual.
Portanto, a questão central agora é como equilibrar inovação, ética e controle.
O futuro do audiovisual não será apenas visto. Ele será gerado, simulado e reinventado por máquinas que entendem o movimento tão bem quanto o olhar humano.
