;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Lidia Zuin

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

O que só você vê? IA 'enxerga' imagens que estão na mente e isso muda tudo

Imagem vista por pacientes que tiveram o cérebro escaneado e, abaixo, a imagem reproduzida pela inteligência artificial - Reprodução
Imagem vista por pacientes que tiveram o cérebro escaneado e, abaixo, a imagem reproduzida pela inteligência artificial Imagem: Reprodução

Colunista do UOL

28/03/2023 04h00

Sabe aquela expressão que diz que gostaria de saber o que se a pela cabeça de uma pessoa? O fato é que estamos cada vez mais próximos de conseguir ter o a isso, com a ajuda de inteligência artificial e dispositivos cérebro-máquina.

Na coluna anterior, comentei brevemente sobre um estudo que usou o algoritmo generativo de imagens Stable Diffusion para reconstruir imagens vistas por pacientes que tiveram seu cérebro escaneado enquanto expostos a essas figuras.

O uso desse algoritmo proporcionou uma precisão tão surpreendente que fez com que os cientistas questionassem se, no futuro, esse mesmo mecanismo não poderia ser usado para ar os sonhos e pensamentos das pessoas ou ainda entender como outras espécies percebem o mundo.

Por enquanto, esse processo não se dá em tempo real, como visto no filme "A.I. - Inteligência Artificial", de Steven Spielberg, ou ainda no episódio "Crocodile" da série "Black Mirror", mas através da leitura de registros já captados —assim como na interpretação de um exame de imagem.

Mas, por outro lado, há outras técnicas como estimulação cerebral profunda que visam esse tipo de o mais simultâneo, de modo a ajudar pessoas com condições como esclerose múltipla a se comunicarem.

Aliás, as maneiras pelas quais nós nos comunicamos com o mundo e expressamos nossas ideias e sentimentos são alguns dos pontos mais caros de disciplinas como a semiótica. No caso da abordagem cultural, o teórico Ivan Bystrina sugeriu classificar essas manifestações comunicativas em unidades chamadas de "texto", mas isto não se resume apenas ao formato escrito.

Em uma palestra ministrada na PUC (Pontifícia Universidade Católica) de São Paulo, em 1995, Bystrina apresentou o conceito de texto como um conjunto de signos/símbolos que têm valor comunicacional e informativo, expressivo, emotivo, estético e social.

O pesquisador sugeriu uma divisão em três categorias:

  • Textos instrumentais dizem respeito ao cotidiano do homem, são extremamente pragmáticos e técnicos (por exemplo, manuais de instrução).
  • Textos racionais dizem respeito às ciências naturais, à matemática (por exemplo, um artigo científico sobre inteligência artificial)
  • Textos criativos e imaginativos englobam mitos, ritos, ideologias, ficções e obras de arte.

Essa mesma noção também aparece na obra de Norval Baitello Jr. e Christoph Wulf, "Emoção e Imaginação". Neste livro, os autores sugerem o termo "imagem" para se referir não apenas ao formato visual, mas também auditivo, olfativo, ou até mesmo imagens proprioceptivas —isto é, as imagens que temos de nós mesmos e que formamos internamente, em nossa mente.

Quando um artista transfere uma imagem mental para o plano físico, por exemplo, através de uma escultura ou de uma pintura, ele pode fazê-lo de diferentes maneiras.

Pense, por exemplo, como o autorretrato de Caravaggio é diferente do autorretrato de Van Gogh não apenas por utilizar técnicas e estilos diferentes, mas também por comunicar uma impressão do mundo de forma distinta.

Ou então considere as paisagens náuticas de William Turner e como estas não estão necessariamente preocupadas em figurar uma tempestade marinha, mas sim um estado mental.

Esse tipo de relação entre a ideia e a obra fica ainda mais difícil de ser captado quando pensamos em obras surrealistas, abstratas, dadaístas.

"Pior" ainda quando chegamos à chamada arte contemporânea que, muitas vezes, é vista mais como uma presunção do que um convite ao pensamento devido ao seu deslocamento entre técnica, estética e referencial comunicativo (o que me faz pensar na famosa pintura de Magritte que figura um cachimbo e a frase "isto não é um cachimbo").

A Traição das Imagens  - René Magritte - Reprodução/ www.renemagritte.org - Reprodução/ www.renemagritte.org
Imagem: Reprodução/ www.renemagritte.org

Com tudo isso em mente, me pergunto o quanto esse tipo de tecnologia que consegue "ler" o cérebro e reconstruir imagens irá ser preciso.

Como visto no estudo mencionado no início do texto, apesar da precisão do algoritmo, ainda assim podemos ver que há uma discrepância entre a imagem originalmente vista pelo paciente e a reconstrução feita pelo programa.

Ainda que ambas as imagens sejam de um ursinho de pelúcia, são ursinhos diferentes, inclusive de cores diferentes. O que surpreende, porém, é que a perspectiva e composição das imagens foram precisamente replicadas.

Por ora, mesmo que já seja possível se reconstruir essas imagens mentais através da leitura de escaneamentos neurais, não significa que estas reconstruções sejam exatamente uma projeção fiel.

Da mesma forma, o homem-palito que você imagina será provavelmente diferente daquele que você desenhar no papel (inclusive por questões técnicas e materiais), há toda uma abstração que pera pelo significado e pela carga emocional que aquela imagem ou objeto possui para uma pessoa.

Ou seja, por mais que fosse possível tirar um "printscreen" do meu cérebro, ainda tem muito mais contexto que precisa ser considerado para que entendamos, de fato, o que está se ando por ali.

Isso é especialmente importante quando pensamos, por exemplo, nos riscos que tecnologias de leitura mental apresentam não apenas à privacidade individual, mas também em seus impactos na saúde.

Anteriormente, cheguei a discutir como os neurodireitos já estão trazendo isso em pauta, sendo o Chile um dos primeiros países a adotar essa agenda em sua constituição.

Por outro lado (ainda mais distópico), esses tipos de intervenção abrem brechas exploratórias como as analisadas por Jonathan Crary no livro "24/7: Capitalismo Tardio e os Fins do Sono".

A verdade é que já existem pesquisas sobre como inserir conteúdos específicos nos sonhos de uma pessoa, especialmente publicidade.

Foi daí que surgiu uma carta aberta assinada por quarenta pesquisadores do sono que pedem pela regulamentação da técnica de incubação de sonhos canalizados (targeted dream incubation ou TDI). Segundo os proponentes, empresas como Coors' e Burger King já estariam ativamente trabalhando nisso.

Conforme ainda herdamos a ideia (ou esperança) de que nossa mente seja o último resquício de privacidade e inibilidade, resistimos fortemente à proposição de tecnologias que poderiam romper com isso.

Por outro lado, me pergunto o quanto dessas descobertas biológicas potencializadas pela tecnologia digital impactarão áreas filosóficas como epistemologia (estudo do pensamento) e ontologia (estudo do ser).

Se formos, simplesmente, pepinos com ansiedade, como diz o ditado, muda muito a nossa relação com o mundo e em especial com outras espécies.

Até agora, nossa abordagem antropocêntrica insiste em nos colocar em um outro patamar existencial devido à formação da nossa mente, mas talvez sejamos apenas organismos (bastante) complexos que invariavelmente podem vir a ser completamente decodificados.