;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Toque delicado: robôs agora possuem mãos que sentem e identificam objetos

Esta garra consegue sentir e identificar objetos com 90% de precisão - Reprodução/ CSAIL/ MIT
Esta garra consegue sentir e identificar objetos com 90% de precisão Imagem: Reprodução/ CSAIL/ MIT

Thiago Varella

Colaboração para Tilt

07/06/2020 04h00

Um dos grandes desafios da robótica é conseguir reproduzir a sensibilidade da mão humana em uma máquina. Inúmeros humanoides possuem garras tão ou mais firmes e precisas que nossos dedos, mas o problema é que, por não sentirem, não conseguem distinguir os objetos que estão segurando.

Mas se depender do Laboratório de Ciências Computacionais e Inteligência Artificial (CSAIL) do MIT (Massachussets Institute of Technology), esse problema vai logo ser resolvido. Os cientistas já conseguiram produzir duas ferramentas que podem revolucionar a robótica usando material mole e flexível, inspiradas em como organismos vivos funcionam.

Esses robôs conseguem operar de maneira muito mais delicada e também são capazes de perceber com quais objetos estão interagindo.

"As mãos macias dos robôs têm peles sensorizadas que permitem pegar uma variedade de objetos, desde delicados, como batatas fritas, até pesados, como garrafas de leite", afirmou a professora do MIT e diretora do CSAIL, Daniela Rus.

Em 2019, pesquisadores do MIT e da Universidade de Harvard desenvolveram uma pinça robótica no formato de cone que conseguia pegar objetos com até 100 vezes seu peso. O robô foi equipado com sensores táteis feitos de látex conectados a transdutores de pressão e, por isso, conseguia entender exatamente o que estava segurando e ajudar a quantidade de pressão exercida de acordo com cada objeto.

Os sensores do robô foram capazes de identificar os objetos com uma taxa de precisão de 90%.

Segundo a pesquisadora Josie Hughes, do MIT, os sensores táteis desenvolvidos pela equipe podem ser fabricados rapidamente e mostraram nos testes que são muito sensíveis e confiáveis.

Um segundo robô desenvolvido pelo MIT faz uso de um dedo "GelFlex" que usa um mecanismo acionado por tendões, sensores e câmeras para dar ao equipamento sensações semelhantes às humanas, com mais de 96% de precisão no reconhecimento de objetos.

A equipe agora espera ajustar os algoritmos de sensações e introduzir configurações mais complexas dos dedos, como a capacidade de torcê-los.