Ferramentas

Conheça a Sora: Nova Ferramenta de Criação de Vídeos da OpenAI

Por Raquel Pereira

Descubra como utilizar a nova ferramenta da OpenAI que promete criar vídeos com base em prompts de texto.

Raquel Pereira

“Criando vídeos a partir de texto.”

Essa é a promessa do Sora, nova ferramenta de geração de vídeos da OpenAI, lançada em fevereiro de 2024.

Segundo compartilhado pela startup, Sora é “um modelo de IA que pode criar cenas realistas e imaginativas a partir de instruções de texto”. Descubra os detalhes sobre essa ferramenta:

O que é a Sora da OpenAI?

Dando continuidade aos modelos de IA utilizados para criação de conteúdo, que começou com o DALL-E, a OpenAI agora está apresentando o Sora: um modelo de inteligência artificial de texto, capaz de gerar vídeos de até um minuto com alta qualidade visual e “aderência às instruções do usuário.”

“Estamos ensinando IA a compreender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exigem interação no mundo real.”

Além disso, o modelo também é capaz de criar um vídeo com base em uma imagem estática e preencher quadros faltantes em um vídeo existente ou estendê-lo.

Como o Sora da OpenAI funciona?

Conforme explicado, o modelo pode produzir conteúdos por meio de prompts de texto, imagens estáticas ou vídeos que precisam ser estendidos/editados.

No entanto, o modelo está em fase de melhorias, por isso a OpenAI explica que ele pode ter “dificuldade para simular com precisão a física de uma cena complexa.”

O Sora da OpenAI já está disponível?

Inicialmente, o modelo será disponibilizado apenas para “red teamers” avaliarem, em busca de áreas críticas, danos ou riscos que possam ser otimizados. Além disso, a startup está concedendo acesso a um grupo restrito de designers, artistas visuais e cineastas para receber feedbacks sobre “como fazer com que o modelo seja mais útil para profissionais criativos”.

“Estamos compartilhando o progresso de nossa pesquisa antecipadamente para começar a trabalhar e obter feedback de pessoas fora da OpenAI e para dar ao público uma noção de quais recursos de IA estão no horizonte.”

Portanto, o modelo ainda não está disponível para todos os usuários, mas já representa um avanço significativo na forma como trabalhamos com a criação de vídeos; algo totalmente relevante atualmente, quando o vídeo é um dos materiais mais relevantes para gerar receita.

Leia também: O Conteúdo em Vídeo Está Presente em Toda a Jornada do Consumidor?

Primeiros testes do Sora da OpenAI

Conforme compartilhado pelo portal americano The Verge, algumas empresas mundiais como a Runway e a Pika mostraram seus próprios modelos impressionantes de texto para vídeo, e Lumiere do Google também é um dos principais concorrentes da OpenAI neste espaço.

Semelhante ao Sora, o Lumiere oferece aos usuários ferramentas de conversão de texto em vídeo e também permite criar vídeos a partir de uma imagem estática.

No entanto, o modelo da OpenAI se destaca pelos testes iniciais, que demonstraram um profundo conhecimento da linguagem da plataforma, permitindo que o modelo interprete com precisão as instruções e gerar personagens atraentes que expressam emoções vibrantes.

Continue acompanhando este artigo para não perder as novidades sobre o modelo! Faça parte do nosso canal no Telegram e receba notificação sempre que atualizarmos o conteúdo.

LEIA MAIS

Táticas Avançadas de SEO e Links Patrocinados com o SEM Rush

Depois de anunciar a abertura do SEM Rush no Brasil, confira neste artigo alguns táticas avançadas do uso do SEM Rush para apoiar a sua estratégia de SEO e Links Patrocinados.

Google Trends: Descubra Tendências de Busca

Saiba o que é e como utilizar o Google Trends, uma ferramenta que irá ajudar você a descobrir novas palavras-chave a serem exploradas. Confira!

SEMrush: O Que é e Como Utilizar Para Aumentar o Tráfego do Seu Site

Saiba quais são as funcionalidades da Semrush, ferramenta muito importante para o SEO e que você precisa começar a usar.

Já pensou em fazer parte do nosso time de mestres?