;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Make-a-video: como é a IA do Facebook que gera vídeos a partir de frases

À esquerda, um arquivo em vídeo no qual a IA se baseou; à direita, versões sugeridas pela IA - Reprodução/Meta
À esquerda, um arquivo em vídeo no qual a IA se baseou; à direita, versões sugeridas pela IA Imagem: Reprodução/Meta

Colaboração para Tilt, do Rio de Janeiro

30/09/2022 16h58

A Meta, empresa proprietária do Facebook, Instagram e WhatsApp, anunciou nesta quinta-feira (29) o lançamento do Make-A-Video, novo sistema de Inteligência Artificial (IA) que converte texto em clipes de vídeo rápidos e de alta qualidade.

O Make-A-Video é uma "evolução" do Make-A-Scene, anunciado no começo do ano. Ambas se baseiam no mesmo princípio de programas como Dall-E, Midjourney e Stable Diffusion — IA generativas multimodais, ou que estudam um grande volume de imagens (algumas até impróprias) para entendê-las e recriá-las.

Através desses programas, é possível criar ilustrações fotorrealistas, arte e outros tipos de imagens estáticas usando texto. Com o Make-a-Vídeo, é possível ir um pouco mais além e criar animações. Na apresentação, a Meta afirma que a nova IA possui três vezes mais precisão e qualidade de vídeo gerado em relação às concorrentes.

No momento, apenas algumas demonstrações da Inteligência Artificial estão disponíveis, para dar uma "palhinha" do poder da ferramenta. A ideia da empresa de Mark Zuckerberg é liberar a IA para o público. Entretanto, a solução ainda não está disponível para teste nem possui data de divulgação.

Quem se interessar, pode se cadastrar para ar e testar a versão beta do Make-A-Video quando for liberada através do formulário disponível no site.

O que ela faz de diferente?

Após digitar algumas palavras ou um pequeno texto, Make-A-Video permite criar vídeos com movimentos, personagens e paisagens. O sistema também pode produzir vídeos a partir de imagens ou se basear em vídeos existentes para desenvolver novos.

Outra diferença está na forma que a ferramenta funciona. Na prática, Make-A-Video usa conjuntos de dados disponíveis publicamente, o que, segundo a Meta, "adiciona um nível extra de transparência", já que não conta com imagens sem consentimento.

"Queremos ser cuidadosos sobre como construímos novos sistemas de IA generativos como este. Estamos compartilhando abertamente essa pesquisa e resultados de IA generativos com a comunidade para obter e continuaremos a usar nossa estrutura de IA responsável para refinar e evoluir nossa abordagem a essa tecnologia emergente.", comprometeu-se a Meta em comunicado oficial.

A empresa não especificou se o Make-a-Video possui restrições de conteúdo gráfico ou violento. Para evitar potenciais usos nocivos, como fake news, os vídeos gerados pela inteligência artificial terão uma marca d'água, informando que o conteúdo foi gerado pelo computador.