Alexandre Le Voci Sayad é jornalista, educador e escritor. Mestre em inteligência artificial e ética pela PUC-SP e apresentador do Idade Mídia (Canal Futura)
Publicado em 17/07/2023
Momento pede compromisso com a originalidade, autoria e ética
A humanidade sempre flertou com o seu fim. Há um fetiche macabro presente no inconsciente coletivo sobre de que maneira chegaremos à extinção — inundados, sem ar ou dominados por robôs. Entretanto, quando esse assunto se torna público, e pretende ser levado a sério, requer doses de coragem e transparência nos fatos e argumentos para que não beire o delírio. Evidências científicas e ficção são uma mistura perigosa para a democracia.
Leia também
No mundo da inteligência artificial, estudante precisa saber argumentar e pensar criticamente
Uma maleta com um botão, ou um telefone vermelho, dentre outros objetos, eram agentes do fim do mundo em tempos de Guerra Fria. Essa agenda hoje está concentrada nos sistemas de inteligência artificial (IA); algoritmos são os novos ícones do Armagedom. Isso porque, não de maneira inédita, cientistas e empreendedores como Sam Altman (um dos fundadores da OpenAI, criadora do ChatGPT) recentemente despejaram 24 palavras em um manifesto público, alertando para a necessidade do controle dos sistemas que, assim, poderia evitar que a humanidade sucumbisse.
Quem pesquisa a inteligência artificial pode considerar esse tipo de manifesto uma cortina de fumaça mercadológica — e eu me incluo nesse grupo. Há impactos na humanidade causados pela IA mais urgentes para serem analisados e mitigados; o mundo está mais próximo do fim se não frearmos o aquecimento global ou não auxiliarmos no processo de paz na invasão da Ucrânia, por exemplo.
Entretanto, a discussão não deixa de ser interessante, mesmo com argumentos fracos. A educação tem um papel crucial de elevar o grau de consciência e clareza sobre ela. Afinal, o tema faz os olhos de jovens brilharem e vem coberto de controvérsias e necessidade de aprofundamento; as falas sobre o fim dos tempos podem ser uma ótima estratégia para começar a tecer um debate socrático na escola sobre um assunto urgente e contemporâneo, que é a inteligência artificial e seus impactos na sociedade.
Escute nosso episódio de podcast:
O exercício pode se iniciar com uma pergunta simples, como toda pesquisa científica que se preze: como funciona a inteligência artificial? O princípio do algoritmo é a base de tudo. Ao coletar uma monstruosa quantidade de dados e reconhecer padrões — a IA generativa (como o ChatGPT) gera um produto final (texto, imagem, voz) com bases estatísticas dessa amostragem. Trata-se de um processo recursivo e em camadas, ou seja, o ciclo se refina e a máquina ‘aprende’ por meio de ‘feedbacks’. Tudo que se fala sobre algoritmo, para além disso, é especulação ou misticismo.
A descoberta pode levar o grupo a questionar: o produto criado pelo algoritmo, que compila milhares de resultados, pode ser considerado original? Torna-se então impossível se furtar a questionar o que define originalidade.
Esse é o mundo que verdadeiramente tem sido ameaçado pela inteligência artificial, mas que poucos falam, a decomposição das certezas. A epistemologia, formada pelos conhecimentos que nos cercam, que gerou conceitos que pensávamos ser imutáveis, nunca mais será a mesma.
O professor de literatura João Cezar de Castro Rocha, da UERJ (Universidade Estadual do Rio de Janeiro), disse certa vez à revista Veja que o debate sobre originalidade na literatura é um preconceito. Deveríamos, sim, estar concentrados no debate sobre complexidade. Para ele, tanto Machado de Assis quanto William Shakespeare não são escritores originais na essência, mas complexos nas tramas de linguagem, características de personagens e estrutura. As histórias repetem padrões, desde os mitos gregos. A complexidade, para ele, está mais ligada ao que se lê, e não ao que se produz. Em essência, Machado e Shakespeare são profícuos leitores, de repertório profundo, antes de escritores.
Esse ponto leva o grupo à terceira pergunta: como o desenvolvimento da IA pode ameaçar a humanidade? Ou então: seremos substituídos? O estado atual de desenvolvimento da inteligência artificial está muito longe dessa realidade, mesmo para os mais sonhadores. Vivemos o que é chamado de ‘inteligência artificial fraca’ que se restringe a tarefas limitadas. A chamada ‘superinteligência’ ou ‘singularidade’, quando a IA assimila todas (e outras) habilidades humanas e nos torna submissos a ela, comandando as decisões em um mundo ciberapocalíptico, é algo irreal nos dias de hoje e num futuro próximo.
Mesmo assim há iminentes três riscos à humanidade ligados ao desenvolvimento da IA. O primeiro é o de a civilização tornar-se obsoleta rapidamente, se não redefinir os conceitos, processos e conhecimentos antes cristalizados, como originalidade, autoria, e agenciamento exclusivamente humano. A morte da ética é outro risco, se não garantirmos bases de dados diversas, proteção de consumidores, privacidade de dados e regulação de desenvolvimento. Por fim, há de fato um risco existencial, esse real, caso não encontremos alternativas para o resfriamento do processamento de máquinas e sistemas que se utilizam de fontes de energia não renováveis. O mundo mais ameaçado pela inteligência artificial é o das certezas.
Alexandre Sayad fala de inteligência artificial e educação midiática em novo livro gratuito