O que é o Sora by OpenAI e por que é importante?
A OpenAI, a empresa por trás do ChatGPT, acaba de divulgar informações públicas sobre seu novo gerador de vídeo de IA chamado Sora. O que é Sora? Sora é uma...
A OpenAI, a empresa por trás do ChatGPT, acaba de divulgar informações públicas sobre seu novo gerador de vídeo de IA chamado Sora. O que é Sora? Sora é uma...
A OpenAI, a empresa por trás do ChatGPT, acaba de divulgar informações públicas sobre seu novo gerador de vídeo de IA chamado Sora
Sora é um gerador de vídeo de IA capaz de produzir vídeos incrivelmente realistas. A OpenAI o descreve como “um modelo de IA que pode criar cenas realistas e imaginativas a partir de instruções de texto”. O Sora ainda não está disponível para ser usado pelo público. Acreditamos que parte da razão para isso é que ele é muito bom no que faz e, portanto, corre o risco de uso indevido. No entanto, há um interesse significativo em Sora por causa dos exemplos que a OpenAI publicou como parte do lançamento.
A IA aberta tem sido tradicionalmente transparente sobre as limitações de seus modelos de IA. Embora existam vídeos mostrando algumas limitações, parece ser um avanço significativo no vídeo gerado por IA. O que mais impressiona são os exemplos de vídeo que são incrivelmente realistas. Muitos reagiram dizendo que isso é um sinal de que a IA gerou filmes, anúncios em vídeo, vídeos de cursos de treinamento e mais pode estar chegando mais cedo do que pensamos.
O primeiro exemplo divulgado é de uma mulher em um vestido vermelho com uma jaqueta de couro preta andando pelas ruas de Tóquio à noite. É extremamente realista. Os reflexos da paisagem noturna da cidade na estrada molhada, bem como os reflexos dos óculos de sol femininos, são muito convincentes para o olho humano.
Outro exemplo mostra o trailer de um filme com um astronauta de 30 anos que, novamente, é incrivelmente realista. É difícil entender que essas pessoas não sejam reais porque os vídeos delas não parecem falsos.
Existem muitos outros exemplos incríveis, alguns dos quais são arte cênica ou desenhos animados. Um dos exemplos inclui navios piratas navegando em uma xícara de café que, embora não seja uma cena realista em si, os detalhes visuais ainda são incrivelmente impressionantes.
Sora certamente não é perfeita e a OpenAI é transparente sobre isso. Provavelmente, o pior exemplo de suas imperfeições é quando os arqueólogos descobrem uma cadeira de plástico. A cadeira começa a se transformar e voar no ar, o que é muito inesperado. Alguns outros exemplos incluem uma avó apagando velas, mas na verdade as velas não se apagam e as pessoas comemorando com ela parecem ter esquecido como bater palmas.
Outro exemplo mostra uma matilha de filhotes de lobo se sobrepondo uns aos outros e acabando se fundindo em um ou aparecendo do nada, o que obviamente não deveria acontecer. Há um exemplo de uma pessoa correndo em uma esteira, mas a esteira está se movendo para trás, então o homem está correndo na direção errada.
Sora mostra fortes capacidades para gerar vídeos realistas e entender os detalhes de cada prompt.
Há uma clara oportunidade de melhorar a eficiência e a qualidade da criação de conteúdo com a IA generativa.
Sora provavelmente habilitará Geração de vídeos de treinamento com IA de qualquer tipo. Atualmente, estamos limitados a gerar vídeos de IA de pessoas falando para a câmera com ferramentas como Heygen e Synthesia. Pense em tutoriais em vídeo mostrando ações específicas para fins de treinamento, como tutoriais de software e tarefas práticas de mão de obra, por exemplo, construção e hospitalidade. Ainda existem desafios: criar vídeos de apresentação de alta qualidade que mostrem mais do que apenas uma pessoa falando para a câmera, mas também demonstrando ou assistindo. slides de apresentação. Sora parece estar se movendo em direção a um futuro em que isso é possível gerar com IA. Também permite a possibilidade de personalizar vídeos de treinamento para cada aluno com base em atributos como estilo de aprendizagem, conhecimentos e habilidades existentese plano de fundo.
Não está claro quando Sora será lançado ao público. A IA aberta está tomando precauções de segurança com responsabilidade, considerando o forte potencial de uso indevido em áreas como política. A IA aberta está testando o modelo e suas desvantagens em um pequeno grupo fechado. Considerando as aparentes preocupações, prevê-se que várias fases de testes ocorram antes que Sora seja lançado para todo o público.
É provável que a OpenAI esteja planejando oferecer acesso ao Sora via ChatGPT, da mesma forma que as imagens DALL-E podem ser geradas com o ChatGPT Plus. Importante para os desenvolvedores de software, o Sora provavelmente estará disponível por meio das APIs da Open AI.
Considerando os vídeos impressionantes que Sora está produzindo e o considerável trabalho realizado nesse modelo de geração de vídeo, é muito improvável que ele esteja disponível gratuitamente. Os usuários precisarão fazer o upgrade para o ChatGPT plus para acessar o modelo. Também devemos considerar que a OpenAI pode fazer uma atualização em seu modelo de preços. Por exemplo, isso poderia potencialmente justificar um plano mais caro, além do Plus, para acessar a geração de vídeo Sora. Não está claro o quão difícil é escalar os vídeos gerados por vídeo de IA com Sora e as despesas da Open AI para fazer isso.
Ao comparar o Sora da OpenAI com outros geradores de vídeo de IA, vários pontos-chave surgem de várias fontes:
O Sora by OpenAI surge como um gerador de vídeo de IA de ponta com realismo e avanços excepcionais que o posicionam como um player significativo no campo da criação de conteúdo de vídeo gerado por IA. Seus recursos inovadores e exclusivos o diferenciam dos modelos tradicionais, abrindo caminho para aplicações transformadoras em vários setores.
Para aqueles que estão intrigados com Sora e suas capacidades no mundo da inteligência artificial, recomendamos visitar o site oficial da OpenAI para obter mais informações ou segui-los nas plataformas sociais para atualizações contínuas e engajamentos da comunidade. Prefere uma explicação em espanhol? Leia um aqui.