«O que todos devemos fazer é nos certificar que estamos usando a inteligência artificial de uma maneira que beneficie a humanidade, e não que a deteriore». (in Revista Forbes, Tim Cook, CEO da Apple)
Preleccionamos neste artigo-ensaio de opinião, acerca do alerta de negatividade e o problema de seguridade da inteligência artificial, colocando a pertinente e incómoda questão-pergunta inevitável: com a IA Gen na escola, como ensinar ética e moralmente, humanamente, com imparcialidade, sem preconceito algorítmico e discernimento ideológico negativo por enviesamento de programação, e não deturpação-afectação comperda da interacção proactiva da díade dialécticahumana em ambiente-contexto escolar?
A ética designa o significado lógico do pensamento racional que estuda e analisa os motivos e fundamentos que constituem, provocam, modificam ou conduzem comportamentalmente a forma (in)alterada de agir, pensar, estar, sentir, ser e viver da pessoa humana, e que tem em consideração os valores morais e a própria moral do ser humano. Do grego, «ethiké»; do latim, «ethica». A IA não pode ser o norte orientador «no sistema operacional da cultura humana». (in New York Times, Yuval Harari)
A educação e a ética são indissociáveis. A escola da inteligência artificial generativa (escola-IA Gen) peca pelo pragmatismo predatório da dimensão aética, ao desumanizar e substituir o ensino natural e a aprendizagem genuína, em anética (do grego «anetikós») diminuição da autenticidade da educação e da responsabilidade dos alunos.
A escola IA Gen, opõe-se à ética e é contrária à moral, no sentido filosófico de estar destituída daregra antropológico–humanista condicionante da adopção de atitudes e decisões subsequentes não adequadas e desprovidas de «ethos». Donde, o risco de conceptualização-padronização psicótica por viés de algoritmo. É factum que a IA Gen é uma «trendy» revolucionária na educação e com crescente afirmação no espaço-tempo escolardiacrónico. Tendência que desqualifica o professor, alimentada pelo sacrossanto algoritmo-dei, o cogitans et partum algorithmus, onde impera o «nudging» (influência factorial externa na tomada de decisões), com problemas éticos de discriminação, privacidade, transparência e explicabilidade no uso dos dados. Enquanto IA educacional, tem de ter presente os valores éticos e morais e nunca ter o papel de substituição do professor, sendo uma ferramenta de complemento do trabalho docente etendo na mira a bússola ética da promoção, reforço e interface humano.
Em contexto escolar, os desafios éticos e morais da inteligência artificial são acrescidos. Vão da (ir)responsabilidade e aplicação-utilização na sala de aulas, passando pela (in)segurança e intimidade dos dados pessoais dos alunos-usuários, até ao potencial e exponencial desemprego docente, e culminando com a «machine learning»; com a IA Gen até 2050, a ter uma capacidade de inteligência, o pensamento e a inteligência artificial das máquinas, equiparada e a superiorizar-se à inteligência humana natural (IHN).
A singularidade da inteligência artificial, cada vez mais evolucionada, complexa e empoderada, com várias camadas, níveis neurais – redes neuronais artificiais, casos do ChatGPT-4, Copilot da Microsoft e da novíssima estrela da OpenAI, o ChatGPT-4.5 Turbo (com o dobro de janela de contexto da versão anterior, um total de 256 mil «tokens», cerca de 600 páginas de texto, por «prompt»), evolução de última geração, com incrível rapidez de processamento de texto, estudo, assimilação de informações e macro-mega dados, cruzamento de bancos de dados, bigdata e treinamento em continuum, obriga à regulamentação legal-normativa e vigilância apertada das autoridades, estados e governos, decorrente da democratização-massificação, popularidade e acessibilidade paga e em «open-source», caso do xAI de Elon Musk, no sentido de controlar as suas potencialidades em stricto sensuético e evitar potenciais riscos, perigos e fraudes.Para mais quando o ChatGPT vai passar a carregar as conversas tidas com o utilizador-usuário, significando que a plataforma registará a memorização das conversas. É fundamental a visibilidade da ética na legislação ad hoc dos países. Em linguagem algorítmica de computação matemática LLMs (large language model – IA Genque imita a inteligência humana natural, IHN), até já se fala na revolução do algoritmo-mestre, o algoritmo de «machine learning» definitivo que recriará o nosso mundo. O novo mundo da interfacialidade do homo-machine e do creatoralgoritmo-dei.
A lab IA Gen da OpenAI, pela voz do CEO Sam Altman, em desmedida competição-aceleração desenfreada pela supremacia, já fala no próximo nível, o ChatGPT–5, com substancialidade melhorada em inteligência, velocidade e capacidades multimodais. (https://mobznews.com.br, OpenAI anuncia lançamento do ChatGPT-5, Eduardo Rodrigues, 20 março 2024)
Para Bill Gates, fundador da Microsoft, a inteligência artificial «pode ficar fora de controlo»; admite que «provavelmente, vai ser capaz de estabelecer os seus próprios objectivos», alerta; mais afirma do facto da IA não ser «necessariamente boa (levando a) resultados estranhos» por incompreensão e contexto de solicitação do utilizador.(https://jornaleconomico.sapo/pt/noticias, in Jornal Económico, Inteligência artificial pode ficar fora de controlo, Ruben Pires, 20 março 2024)
A tecnologia é hoje, no presente futurista, um evangelho perturbador da nossa atenção e presença. É detentora de um mundus humanusseguidista, alienado e acrítico; tem uma presençastressante, velocidade estonteante e capacidade de «pensamento» avassaladora, de longe muito superior ao comum mortal e impossível de acompanhar humanamente. Condiciona, manipula e é viciante. «Porque se move mais depressa do que os nossos corpos e mentes, a tecnologia perturba os instintos naturais e corporais que temos para fazer uma pausa, descansar e reflectir. O nosso envolvimento com dispositivos interrompe os rituais diários que evoluíram ao longo de milénios para nos servir bem, como indivíduos e como sociedade. (…) O ritmo alucinante da tecnologia não permite os milissegundos necessários para estarmos suficientemente conscientes para dar um passo atrás». (https://cnnportugal.iol.pt/tecnologia/apps,Cancele a subscrição de tudo para começar a controlar a (tecnologia na) sua vida, CNN, JessicaDulong, 18 fevereiro 2024)
É aqui que a ética é determinante no uso e no estabelecer de balizas-limite à presença-vivência perturbante, abusiva e intruso-invasiva da IA Gennas nossas vidas, de inegável deslumbramento apelativo, para mais em crianças e jovens em idade escolar, e um sistema educativo permissivo e de permeabilidade à IA. A interactividade proactiva estimulante e de bombardeio constante da inteligência artificial com os dados psicográficos (são pontos de dados que descrevem o estilo de vida, as opiniões e os valores do visitante de um site), a pontuação social (o «social rating scoring system» – sistema de pontuação de classificação social avaliativo-punitivo chinês) e a categorização biométrica (caso da íris), é de grande, absoluta, traiçoeira e insidiosa violência sobre a pessoa humana. Donde, é tudo menos ética, pela exposição pública pessoal íntima e pela dependência e adição automatizada e sub-reptícia que cria nos seres humanos, de danosa e crónica compulsividade comportamental tóxica.
Só a ética e apenas a ética na utilização da IA, dá o discernimento e permite utilizar as vantagens da tecnologia algorítmica e anular parte da vitimização que intrinsecamente transporta, ao deformar a essência e constância da pessoa per si; por e com emotiva masturbação tecno-cerebral e leitura «webster» do «Eu» completo – a personalidade, o carácter, a identidade, o temperamento, a disposição, histórico e estatística, etc. Realidade (a)ética agravada e marcante em contexto escolar, com mentes jovens em (de)formação.
Donde, da necessidade categórica de desintoxicação ensino-aprendente digital-tech, da re-humanização da escola, do urgente e autoritário reassumir do auto-controle, ter a consciência do grave problema que atormenta a actual sociedade ciber-axio (do grego aksía, valor) da informação, do virtual presente e do humano ausente. Ter a ética ea eticidade, a moral e a intencionalidade de estar ao comando; fazermos uma apreciação avaliativa crítica de negatividade reticente dos perigos, falhas de segurança, manipulação da IA Gen e imperiosidade estatal normatória legal. Em súmula, a assumpçãoplena e em plenitude do «sagrado humano».
Somente a utilização ética da IA Gen em modo e uso moralmente responsável, possibilita que utilizemos a tecnologia do algoritmo aditivo e criador de aditivada(s) dependência(s) e não, ao contrário do que está acontecendo, sermos utilizados pela inteligência artificial. Usufruir do uso utilizado dos benefícios tecnológicos da IA e não ser vítima da droga do século XXI, a tecnologia artificial digital de viciação e dependência dos nossos cérebros, dizendo não ao online e ao marketing massacrante que enviesa e tortura a lucidez e racionalidade humanas. Voltando à entrevista editada de Dulong, jornalista de Brooklyn, Nova Iorque, a Júlio Vincent Gambuto, fala que: «O primeiro passo é cancelar a subscrição, o que retira o nosso envolvimento do piloto automático (…) fazer uma desintoxicação digital (…) e silenciar as notificações». (idem)
A ética na «tech school» é determinante. Em computação, programação e programadores, a IA é alimentada com informações, dados e meta-dados que são mimetizados pela inteligência artificial. Há sempre o perigo de viés de algoritmo (de amostra, de preconceito, de medição, de selecção, inclusão, exclusão, etc.) aquando da replicação das respostas e tomadas de decisão (mais grave ainda) das máquinas ao imitar as reacções humanas – e o assumir das responsabilidades/culpas. O treinamento dos automatismos com e como o pensamento humano, quando enviesado, decide falsamente, com implicações educativas éticas da IA Gen deturpadas e afectantes da «humanização do serviço público prestado»; com falhas e mesmo desastre ao nível da abordagem e complexidade das questões, como «equidade, (inclusão), diversidade, (exclusão), privacidade, segurança, transparência e explicabilidade». (https://w.w.w.ironhack.com/pt/blog, Ética e Viés/bias na inteligência artificial, Juliette Erath, 25 julho 2023)
A ética, combate a imprecisão dos algoritmos, a defeituosidade dos dados e o «error big data». O «boom» da ferramenta de trabalho da IA Gen na organização escola, em substituição do professor, não pode ser abrupta, mas paulatina, experimental q.b., consistente, «residual optional project», e não desmaterializante do factor humano da educação, do ensino, da aprendizagem de idiossincrasia humanista, da emocionalidade e probo-integridade antropológica. Não podemos correr o risco da desinformação «error tech» e da doença algorítmica da IA «deepfake» da hiper-falsificação, da comercialização apressada integrativa no sistema educativo, ao arrepio ético; até porque, e ainda, a consciência é humana, sendo que a ressonância e risco sistémico por viés e perversa toxicidade persuasiva dos modelos e sistemas operativos é tecnologia IA generativa de última geração, matematização avançada e complexificação «scribd» algoritmizada.
«A alucinação da inteligência artificial é actualmenteum termo bastante reconhecido (…) semelhante ao fenómeno de alucinação na psicologia humana; (…) é essencial que a ética seja discutida e aplicada na prática (e praticidade), não apenas como uma questão de regulação, mas porque precisamos formar seres humanos para reflectir sobre questões éticas e viés ao usar a IA». (https://jornal.usp.br/actualidades, Inteligências artificiais entram em campo contra e a favor da desinformação, Jornal da USP, Denis Pacheco, 10 novembro 2023)
É de proibição ética a continuação alucinada e atordoante da desmaterialização e desumanização da escola pública. De tão insistentemente continuada, os danos vão-se mostrando irreparáveis e irreversíveis. A escola pública da pedagogiafacilitista e filosofia da felicidade permanente, agravada pelo desvario fundamentalista digital e imbecilidade gov–tutelar reforçada por intrusão da IA Gen, poderosíssima ferramenta desmaterializantedos próprios cérebros dos alunos-usuários, estudantes com o QI em regressão, e o abaixamento político decretado da exigência e essência escolar, são machadadas numa escola pública de impreparação discente consciente, em estado comatoso – tudo é lúdico, facilitismo «eduquesado», superficial e de natureza não traumatizante; com a escola a passar uma mensagem falaciosa e perversa de mentira e falhanço sistémico que não prepara para a vida real em sociedade. Com os pais e encarregados de educação (EE) a «East of Eden». Quo vadis!
É um facto que a IA Gen é uma tecnologia revolucionária, aliciante e facilitante das tarefas e trabalhos escolares, de efeito intelectual desintegrador e regressão-perda cognitiva. A edu-artificialização-gen, a reprodução dos bancos de dados big data, o hackeamento do intimus do aluno-usuário algoritmizado e a transumanização das«expert machine learning», são uma mistificação dapraxis ética e moral solum humanas, por parte da IA Gen.
Em educação e na escola-IA Gen, os problemas éticos são um facto. A actual e futura IA Gen pode alucinar e falsear a informação. Uma IA alucinante e em alucinogénese, em contexto de ecossistema digital escolar e governança corporativa capitalista,pode causar diversos problemas ao nível da desinformação, com confusão, pânico e caos,inclusão ou exclusão sistémica resultante de interactividade negativa; viés algorítmico de programação por defeituosidade inconsciente e preconceito.
Falhas e erros, bugs de software: caracterização étnico-racial e segregação de grupos de estudantescom base na raça, género ou idade; previsão de comportamentos; identificação de orientação sexual;ilegalidade e violação dos valores e direitos humanos; perigo de conteúdo difamatório sobre os alunos, docentes e funcionários; comprometer a privacidade e segurança dos dados pessoais com o acesso e infracção de informações confidenciais sensíveis; interferência no sistema de segurança da escola ao permitir a entrada de pessoal não autorizado; manipulação de notas, registos e desempenho escolar; desligar e danificar equipamentos causando interrupção e perturbação do normal funcionamento das actividades lectivas;criação por viés secto-faccioso parcial, de conflitualidade estudantil disruptiva e leitura distóptica da realidade através de mensagens de incitamento a comportamentos inadequados(bullying, indisciplina, violência e registo de incidentes críticos); abuso da recolha e utilização de dados afectivos, motivacionais e cognitivos dos discentes; comprometimento da autonomia de educandos e professores e desvio da recolha de dados para outros fins; introdução pela IA de preconceitos adicionais nas decisões educacionais;perigosidade e risco de viés, discriminação e algoritmos de IA tendenciosos; problema-alerta de privacidade, segurança, protecção e consentimento no uso dos dados pessoais dos alunos; entrada de empresas no ecossistema educativo envolvidas no capitalismo de vigilância (Williamson, 2018).
Eticamente, na dimensão sociopsicopedagógica e didáctica, e ao nível cognitivo com a aquisição, compreensão e aplicação de conhecimentos, é de evitar a excessiva dependência dos alunos da IA e da automatização de tarefas, com afectação do desenvolvimento das habilidades de pensamento crítico e resolução de problemas; falta-falha grave de regulação do uso da IA nas escolas; importância da transparência e explicabilidade dos algoritmos de IA; falta de eticidade no uso da IA pode levar à privação de justiça e equidade; crucialidade na clareza da responsabilidade humana pelas decisões tomadas por sistemas de IA; o impacto profissional e sócio-afectivo da IA na educação, com o latente desemprego docente e as mudanças nas relações professor-aluno, consequente perda do factorhumano e da díade dialéctica; perda da liberdade individual; plágio e fraude; substituição de aprendizagem genuína; prejuízo de desenvolvimento social e comunicacional, com perda de interactividade e proactividade humana; desrespeito da integridade pessoal; desrespeito e diminuição da autenticidade educacional e desresponsabilização dos alunos.
Na educação, ensino e aprendizagem da escola IA Gen, a conectividade acontece na intimidade da interfacialidade dos ecrãs e telas, em ambiente comunicacional virtual, no qual o homo communicans interage por conexão e interface; a glocalização do homo digital é cada vez mais uma prática do pensar globalmente e agir localmente. Refere-se à presença da dimensão local na produção de uma cultura global digital de IA Gen, em catártica negação escolar identitária e cada vez mais afirmante tendência à homologia. Daí, a crucial importância da ética reguladora, solum humana, na escola pública desumanizada da IA Gendesregulada.
O impacto nas aprendizagens, a leitura analítica dos resultados escolares e «dashboards», quer para alunos, professores e gestores, vincam cada vez mais da necessidade da ética humanista aprofundada nas abordagens, estudos e decisões políticas. Está em causa a própria proficientia e proficere do sistema educativo.
«A ética é uma praxis humana. No entanto, isso começa a sofrer arranhões quando várias das nossas interacções são medidas por máquinas; (…) existe ética na inteligência artificial?» (https://w.w.w.iea.usp.br/noticias, Como trabalhar a ética na inteligência artificial, Instituto de Estudos Avançados, Universidade de São Paulo, Beatriz Hermínio, 23 setembro 2022)
A afirmação supracitada é de Eugénio Bucci, coordenador académico da cátedra Óscar Sala. Para Bucci, a ética é obrigatoriamente, intrínseca e intimamente humana.
«É importante que sejam tomadas medidas para garantir que a IA seja usada de maneira responsável e ética na educação». (Instituto Federal de Santa Catarina – IFSC, resposta dada pelo ChatGPT)
A fechar, a notícia histórica e pioneira sobre a aprovação do regulamento, quadro normativo legal e clausulado da inteligência artificial na União Europeia (UE), marco significativo na regulação global da IA Gen, aprovado pelos eurodeputados no parlamento europeu, em Estrasburgo, no dia 13 de março de 2024: «a primeira lei de sempre em matéria de IA» – AI Act. (https://w.w.w.jn.pt, in Jornal de Notícias, Primeiras regras sobre inteligência artificial aprovadas na próxima semana, 9 março 2024)
Disse.
Carlos Calixto
4 comentários
Passar directamente para o formulário dos comentários,
Parabéns. Mais um excelente artigo.Concordo com tudo o que dizes.Temos que ter muita cautela e saber utilizar a IA ,de uma maneira sábia e inteligente.Os nossos alunos não devem ser máquinas, mas sim seres pensantes, capazes de fazerem críticas .
Mais um chorrilho aborrecidíssimo de palavras, como sempre.
😵💫😵💫😵💫😵💫😵💫😵💫😵💫
Mais um sublime artigo de opinião engendrado por essa mente de eleição que, há muito, deveria estar a presidir os destinos do Ministério da Educação.
Este artigo de opinião está tão bom, tão bom, tão bom, que parece ter sido gerado pela IA-GEN.
Carlos Calixto é magnífico!
Carlos Calixto é supremo!
Carlos Calixto ao Poder, já!
Carlos Calixto a Ministro da Educação, já!