... porque, para ser mais claro ainda, seria justo que alguém me pagasse para isso... (agora, por exemplo, enquanto escrevo isto, estou a atrasar o meu jantar, e eu, como sabem decerto, não sou Deus: também tenho de me alimentar, sob pena de entrar em fraqueza...)
Primeiro uma gargalhada (que faz muito bem à saúde, asseguram os "espertos"): Ah ah ah ah... agora a ética está no algoritmo! ah ah ah ah ah... Nada de surpreendente porém; já temos há muito notícias, por exemplo, dos erros do sistema "inteligente" do fisco indígena. "Ele" comete-os, não é juridicamente imputável por eles, como parece aliás lógico (qualquer dia matava-se um gajo e dizia-se que a culpa era mesmo da pistola...), e quem se lixa é sempre o mexilhão. O mexilhão que, por exemplo, não tem acesso às subrotinas do algoritmo que permitem fazer DELETE ou FORGET nas dívidas fiscais, nem às que causam apagões fiscais do tipo "UNRECOVERABLE SYSTEM ERROR - ALL DATA HAS BEEN LOST" quando estão em causa quantias mais "volumosas", mais "suscetíveis" de embbaraçar o pobre algoritmo. A questão tem tudo a ver com a focagem; de nada servem comissões de ética ou entidades reguladoras, generosamente pagas e publicitadas pelo estado, pela indústria (ou, o que é mais provável, por ambos), comissões e entidades que hão-de desdobrar e esmuiuçar tanto os problemas e fazê-los tanto render até ao ponto em que se torna irreversível serem os mesmos de sempre a lixar-se, ou seja, a grande maioria que historicamente sustenta (a máquina) do estado e que paga a tais comissões e entidades. A questão é: qualquer actividade ou sistema controlado pela IA ou pela IoT deve ter três "botões" bem à vista: um que diga "UNDO" (com a possibilidade de "RESET"); outro que diga "MANUAL CONTROL" e outro que diga, simplesmente, "TURN-OFF" ou "SHUT DOWN". Ou seja, deve ser sempre, e em qualquer circunstância, possível ao utilizador, quando ele bem quiser, anular a decisão que a máquina ou sistema tomou por si; decicidir por si tudo o que houver para decidir, sem qualquer excepção; em particular decidir contrariamente ou de modo diferente daquele que o algoritmo decidiu; e deve ainda ser possível ao mesmo utilizador, por decisão própria e não sujeita a qualquer tipo de condições, tipo autorização prévia ou inquérito, tomar as decisões que lhe aprouverem por si próprio, sem qualquer ajuda dos sistemas de IA ou IoT. Tudo o que seja que escape a alguma destas possibilidades de controlo será muito mau, pois ferirá de morte o histórico livre-arbítrio das pessoas. Curiosamente, não se ouve falar das primordiais questões que um "futuro" dominado pela IA levanta: as jurídicas, nomeadamente relativas à intencionalidade e responsabilidade dos sujeitos agentes pelas suas acções. Isso é, no mínimo, estranhíssimo.
Sem comentários:
Enviar um comentário