Robótica ou “humanótica”?

Reflexões sobre Gandhi de George Orwell
26 de agosto de 2018
Mojud: o homem cuja história era inexplicável
11 de setembro de 2018

Robótica ou “humanótica”?

Não estamos tão preocupados com a falta de controle dos humanos sobre as máquinas ou com um imaginário futuro controle das máquinas sobre os humanos e sim com o excesso de controle dos humanos sobre os humanos, que acaba transformando os humanos em máquinas

Lendo a entrevista de Andy Rubin, concedida à Carlos Graieb (VEJA, 2/09/2015), chama a atenção a seguinte resposta do criador do Android:

“Simplificando, a robótica já sabe replicar as funções do sistema nervoso central, e usa sensores que desempenham de maneira aproximada o papel das estruturas responsáveis pela visão ou pelo equilíbrio. Mas não entendemos o cérebro inteiro. Por isso, a ciência da computação está estudando o comportamento. Estamos tocando a essência da inteligência, o que diferencia um ser humano de uma máquina. Quando alguém lhe chuta uma bola, você sabe o que fazer com ela. O robô não sabe. Como ensinar máquinas a fazer coisas com base em sua interação com o ambiente?”

Pois é. Rubin quer fazer robôs interativistas, capazes de simular o comportamento de seres vivos inteligentes. Todavia, o que caracteriza a inteligência tipicamente humana não é a interação com o ambiente (própria dos seres vivos em geral) e sim a interação com outros humanos.

Devemos inverter a questão que preocupa Rubin. Em vez de fazer robôs capazes de aprender na interação com o ambiente, imitando os humanos, como impedir que os seres humanos continuem imitando os robôs? Tudo bem com bolar os algorítimos e desenvolver a programação que possa fazer com que os robôs sejam interativos. O problema é não continuar programando seres humanos para que eles se comportem como robôs, como fazem os sistemas de ensino baseados em teorias cognitivistas da aprendizagem. A robótica pode ter um rebatimento inverso na aprendizagem humana: em vez de procurar fazer robôs cada vez mais inteligentes a partir do estudo da aprendizagem humana, corremos o risco de cair na tentação de querer fazer humanos mais inteligentes a partir da aprendizagem dos robôs.

Robôs super-inteligentes não serão humanos porque não terão a inteligência tipicamente humana e não serão capazes de aprender como os humanos. Humanos super-inteligentes, com a inteligência típica de robôs e capazes de aprender como os robôs, não serão mais humanos e sim menos humanos.

Um robô como máquina interativa pode simular o comportamento de um ser vivo, mas não pode simular o comportamento de um ser humano. Maturana e Varela, em 1973, no clássico “De máquinas e seres vivos: a autopoiese e a organização do vivo”, abriram um caminho para pensar a aprendizagem interativa que é própria dos seres vivos. Mas não somos máquinas nem seres vivos na medida em que – como entes sociais – não estamos estruturalmente determinados, pois temos liberdade para ser infiéis à nossa programação genética e, com isso, ultrapassar a epigênese. Não é autopoiese e sim alterpoise. Dizendo de outra maneira: se o espectro de Tolstoi (que dizia que o único fundamento da pedagogia é a liberdade) não assombrar Maturana, não há esperança para a humanidade (quer dizer, para a aprendizagem tipicamente humana).

Stephen Hawking e Elon Musk, entre tantos outros cientistas e empreendedores famosos – inclusive o próprio Rubin – estão preocupadíssimos com as armas que serão fabricadas com inteligência artificial e até assinaram uma petição que pede o controle legal rígido desses artefatos. Aparentemente não querem que robôs capazes de aprender como os seres vivos (ou seja, interativamente), fujam do controle dos humanos e acabem até controlando os humanos. Nós estamos preocupados mesmo é com o controle dos humanos sobre os humanos. Não estamos tão preocupados com a falta de controle dos humanos sobre as máquinas ou com um imaginário futuro controle das máquinas sobre os humanos e sim com o excesso de controle dos humanos sobre os humanos, que acaba transformando os humanos em máquinas. Não é o cenário futuro de ficção da Skynet (a inteligência artificial altamente avançada da série The Terminator, de James Cameron) que nos atormenta e sim a repetição de passado. Estamos mais preocupados com o que a sociedade hierárquica está fazendo há milênios com os seres humanos, transformando-os em robôs através da programação de máquina chamada ensino.

Toda vez que o ensino dificulta a livre-aprendizagem matamos no embrião inumeráveis possibilidades de sermos mais-humanos. A inteligência tipicamente humana, aquela que nos faz humanos, que só ocorre na interação entre humanos e que cria novas entidades sociais (novas pessoalidades), apesar de ser designada pela mesma palavra (inteligência), não tem nada a ver com a inteligência das máquinas e não se reduz, nem pode ser derivada, da inteligência dos seres vivos. É a única inteligência verdadeiramente criativa que conhecemos, porque recria, inclusive, as condições de sua gênese (o que seres vivos não podem fazer, só seres sociais).

Os fundamentos da robótica não são novos, ao contrário do que parece e é anunciado. Eles foram lançados há milênios, quando começamos a programar seres humanos como se fossem máquinas. Se queremos dar sequência à humanidade – prosseguindo nessa maravilhosa bifurcação em que entramos quando nos tornamos humanos – precisamos agora de menos robótica e mais (com perdão do neologismo meio sem jeito) “humanótica”. Sim, uma espécie de humanótica (baseada em uma visão interativista da inteligência tipicamente humana e na livre-aprendizagem) talvez seja a única maneira de superar nossos déficits de criatividade e de inovação. Mais do que isso, talvez seja a única maneira de interromper a matança de crianças (nas escolas) e de evitar a exterminação no embrião de milhões de gênios.

Para saber mais clique: http://humana.social/como-configurar-ambientes-inovadores-de-aprendizagem/