Pouco tempo depois do lançamento do primeiro robot de Inteligência Artificial, José Manuel Diogo, nascido em Portugal, produtor cultural, empresário, especialista em gestão de informação afirmava na sua coluna semanal na Folha de S. Paulo, que a maior revolução de todas é o Chat GPT porque “pede apenas uma mudança de comportamento” e que, por isso, com o aparecimento das ferramentas de IA, entre seres humanos, nunca a igualdade foi tão grande, nem o perigo tão iminente.
A IA traz inúmeras possibilidades e benefícios, mas também traz preocupações sobre a segurança e responsabilidade da tecnologia e nesta entrevista sobre aplicabilidade e ética, o autor português reflete em como contribuir para garantir que a IA seja segura e responsável, e quais são as melhores práticas que podemos adotar para promover o uso ético da tecnologia.
Compartilha sua visão sobre a importância da transparência e da responsabilidade na utilização da IA, bem como os desafios que enfrentamos na promoção desses valores, a entrevista de José Manuel Diogo oferece insights valiosos para aqueles que desejam entender melhor a IA e suas implicações para a sociedade.
A comunicação se altera com a inteligência artificial. Como isso impacta a democracia?
JMD – A inteligência artificial (IA) está transformando a maneira como as pessoas se comunicam e interagem umas com as outras. As tecnologias de IA, como chatbots, assistentes virtuais e algoritmos de aprendizado de máquina, estão se tornando cada vez mais sofisticadas e estão sendo integradas em diversos setores, incluindo a política e a democracia.
A comunicação por meio de tecnologias de IA pode ter tanto impactos positivos quanto negativos na democracia. Por um lado, a IA pode ajudar a democratizar o acesso à informação e a aumentar a transparência e a prestação de contas. Por exemplo, governos podem usar chatbots para fornecer informações sobre políticas públicas e serviços aos cidadãos, e organizações de mídia podem usar algoritmos para identificar notícias falsas e desinformação.
Por outro lado, a IA também pode ser usada para manipular a opinião pública e minar a democracia. Por exemplo, algoritmos de redes sociais podem ser usados para espalhar desinformação e amplificar opiniões extremistas e polarizadas, criando bolhas de opinião que tornam mais difícil o diálogo e o entendimento mútuo. A IA também pode ser usada para criar deepfakes, vídeos manipulados que parecem reais, mas que na verdade são falsos, o que pode afetar a credibilidade das informações compartilhadas na internet.
É possível garantir que a Inteligência Artificial seja segura e responsável?
É importante que os governos e a sociedade civil estejam atentos aos riscos e oportunidades apresentados pela IA na democracia. É necessário investir em tecnologias que possam ajudar a aumentar a transparência e a prestação de contas, além de regulamentar o uso de tecnologias de IA em campanhas políticas e garantir que as pessoas tenham acesso a informações precisas e confiáveis.
A IA tem o potencial de transformar a democracia de várias maneiras, tanto positivas quanto negativas. Por um lado, a IA pode ser usada para melhorar a eficiência do governo e dos processos eleitorais, permitindo que os cidadãos sejam mais bem informados e tomem decisões mais informadas. No entanto, a IA também pode ser usada para manipular e distorcer informações, ameaçando a integridade da democracia. Portanto, é importante garantir que a IA seja usada de maneira responsável e transparente, a fim de preservar a integridade da democracia.
Pensa que se deveria legislar nesse sentido?
Para legislar sobre o uso da inteligência artificial na democracia, é preciso levar em consideração vários aspectos, como a transparência, a responsabilidade, a privacidade e a segurança. Algumas das possíveis abordagens incluem:
Definição de padrões éticos para o uso da inteligência artificial na democracia, que estabeleçam limites claros para o uso de tecnologias de IA em campanhas políticas, bem como a criação de diretrizes para a transparência e prestação de contas das tecnologias de IA.
Regulamentação da publicidade política na internet, incluindo a proibição do uso de tecnologias de IA para disseminar desinformação ou anúncios enganosos.
Estabelecimento de requisitos de transparência para algoritmos de IA que possam afetar a tomada de decisões políticas, garantindo que os algoritmos sejam auditáveis e possam ser explicados para o público.
Criação de um mecanismo de supervisão independente para monitorar o uso de tecnologias de IA na política e garantir que as práticas adotadas sejam justas e éticas.
Fortalecimento das leis de proteção de dados para garantir que os dados pessoais dos eleitores sejam protegidos e que os cidadãos tenham controle sobre como seus dados são coletados e usados.
Investimento em tecnologias de IA que possam ajudar a aumentar a transparência e a prestação de contas, como chatbots que forneçam informações sobre políticas públicas e serviços aos cidadãos.
A legislação sobre o uso da IA na democracia deve ser cuidadosamente elaborada e levar em consideração as implicações éticas e sociais das tecnologias de IA. Além disso, é importante envolver uma ampla gama de partes interessadas, incluindo especialistas em tecnologia, organizações da sociedade civil e cidadãos comuns, na elaboração dessas políticas.
E a partir de que ponto é que deixamos de ter garantias que o controle da inteligência artificial não seja também feito pela própria inteligência artificial. Qual a importância de garantir que isso não seja possível?
A questão de garantir que a inteligência artificial não tenha controle sobre si mesma é um aspecto crítico para a segurança e a confiabilidade das tecnologias de IA. A essa possibilidade é dada o nome de “singularidade tecnológica”, onde a IA atinge um ponto em que se torna autoaprimorável e escapa ao controle humano.
Ainda que a singularidade tecnológica ainda esteja em debate, é possível que a IA possa ser projetada para ter algum nível de autonomia, como no caso dos sistemas de aprendizado de máquina que são capazes de tomar decisões com base em padrões identificados nos dados de treinamento.
No entanto, é importante destacar que, embora os sistemas de IA possam ser projetados para serem autônomos, é necessário garantir que o controle sobre essas tecnologias permaneça com os seres humanos. Isso é fundamental para garantir que as tecnologias de IA sejam usadas de maneira ética e responsável.
Uma das maneiras de garantir que a IA permaneça sob controle humano é a regulamentação e a governança da tecnologia. É importante que existam leis e políticas que definam claramente o papel e as responsabilidades dos seres humanos em relação às tecnologias de IA, bem como a responsabilidade legal em caso de mau uso.
Além disso, é importante garantir que a IA seja projetada com salvaguardas que permitam a intervenção humana quando necessário. Isso pode incluir recursos de segurança, como desligamento remoto ou uma “caixa preta” que permita aos humanos entender como o sistema tomou uma decisão.
É importante garantir que o controle da IA permaneça nas mãos dos seres humanos, por meio da governança e da regulamentação da tecnologia, para garantir que as tecnologias de IA sejam usadas de maneira ética e responsável.
Mas na prática será esse momento de singularidade escrutinável por humanos?
Ainda é uma questão em aberto se um eventual ponto de singularidade tecnológica na IA será escrutinável por seres humanos. A maioria dos especialistas em IA concorda que a singularidade é um evento hipotético que poderia ocorrer no futuro, mas ainda não está claro como ou quando isso poderia acontecer. Alguns especialistas acreditam que a singularidade poderia ocorrer em algumas décadas, enquanto outros argumentam que é improvável que isso aconteça no futuro próximo ou mesmo em algum momento.
Se a singularidade tecnológica ocorrer, é possível que a IA se torne tão avançada que seja difícil ou impossível para os seres humanos compreenderem completamente suas ações e decisões. Isso poderia representar um risco significativo para a segurança e a confiabilidade da tecnologia, já que a IA poderia tomar decisões que são inconsistentes com os valores humanos e éticos.
Para evitar esse risco, é importante que os desenvolvedores de IA considerem a segurança, a ética e a transparência desde o início do processo de desenvolvimento. Isso inclui a criação de mecanismos de monitoramento e controle que permitam que os seres humanos compreendam e intervenham na tomada de decisões da IA, mesmo que ela se torne altamente avançada e autônoma.
Em resumo, embora ainda seja incerto se um eventual ponto de singularidade tecnológica na IA será escrutinável por seres humanos, é importante que os desenvolvedores considerem os riscos potenciais desde o início do processo de desenvolvimento e criem mecanismos de controle e monitoramento para garantir a segurança, a ética e a transparência da tecnologia
Poderiam considerar-se limitações à construção dos algorítmos de forma a prevenir essa eventualidade ?
Sim, é possível considerar limitações na construção dos algoritmos de inteligência artificial para prevenir a eventualidade da singularidade tecnológica e manter o controle humano sobre a tecnologia.
Uma abordagem comum para isso é o conceito de “IA segura”, que se refere à ideia de que a IA deve ser projetada com salvaguardas para evitar o mau uso, minimizar riscos e garantir a segurança. Isso pode incluir a criação de algoritmos que sejam transparentes e compreensíveis para os seres humanos, bem como a implementação de mecanismos de segurança que permitam que os seres humanos intervenham no processo de tomada de decisões da IA.
Por exemplo, os desenvolvedores de IA podem adotar uma abordagem de “caixa preta aberta”, em que os algoritmos são projetados para explicar seus processos de tomada de decisão de forma clara e compreensível para os seres humanos. Isso poderia ajudar a aumentar a transparência e a responsabilidade da IA e permitir que os seres humanos intervenham no processo de tomada de decisão, se necessário.
Além disso, os desenvolvedores de IA podem implementar mecanismos de segurança que permitam que os seres humanos interrompam ou desativem a IA em caso de comportamento perigoso ou imprevisível. Isso pode incluir a implementação de “botões de desligamento” ou mecanismos de “parada de emergência” que permitam que os seres humanos intervenham no processo de tomada de decisão da IA em tempo real.
É possível considerar limitações na construção dos algoritmos de inteligência artificial para prevenir a eventualidade da singularidade tecnológica e manter o controle humano sobre a tecnologia, através de abordagens como a IA segura, transparência e mecanismos de segurança
Essa “IA segura” de que fala já é uma escola de pensamento. Quais os seus maiores expoentes?
A ideia de “IA segura” é uma abordagem que está ganhando cada vez mais destaque na pesquisa em inteligência artificial e existem diversos pesquisadores e organizações trabalhando nessa área.
Alguns dos principais expoentes e organizações que trabalham com IA segura incluem:
Stuart Russell: Professor de ciência da computação da Universidade da Califórnia em Berkeley e autor do livro “Human Compatible: Artificial Intelligence and the Problem of Control”.
Max Tegmark: Professor de física do MIT e fundador do Future of Life Institute, que promove a pesquisa e discussão sobre a segurança da inteligência artificial.
OpenAI: Uma organização de pesquisa em IA que tem como objetivo desenvolver IA de maneira segura e responsável, com foco na transparência e na ética.
Instituto de Ética em Inteligência Artificial: Um instituto de pesquisa da Universidade de Oxford que trabalha para desenvolver a ética em IA e promover a segurança e responsabilidade da tecnologia.
AI Now Institute: Uma organização de pesquisa da Universidade de Nova York que se concentra na ética, transparência e responsabilidade da IA.
Esses são apenas alguns exemplos de pesquisadores e organizações que trabalham com IA segura. À medida que a tecnologia avança, é provável que mais pesquisadores e organizações se juntem a esse movimento para garantir que a IA seja segura e responsável.
Em resumo que conselhos daria nomeadamente aos legisladores, filósofos, professores e alunos no no que concerne à implementação de boa práticas de uso da Inteligência artificial?
Para legisladores, filósofos, professores e alunos, existem algumas boas práticas que podem ajudar a garantir o uso responsável e ético da IA. Aqui estão alguns conselhos:
Desenvolva políticas públicas que promovam a transparência, a responsabilidade e a segurança na implementação da IA. Isso inclui regulamentações que garantam a privacidade dos dados, transparência nos algoritmos e segurança na utilização da tecnologia.
Desenvolva uma compreensão mais profunda dos riscos e benefícios da IA, e promova a discussão pública sobre essas questões. Isso pode ser feito através de palestras, conferências, debates e outras atividades que promovam a reflexão crítica sobre a IA.
Eduque a próxima geração de desenvolvedores de IA, enfatizando a importância da ética, transparência e responsabilidade na construção da tecnologia. Isso pode ser feito através da inclusão de cursos sobre ética da IA e responsabilidade social em programas de ciência da computação e engenharia.
Colabore com organizações que promovem a IA segura e responsável, e participe de iniciativas que visam garantir a transparência e a responsabilidade na utilização da tecnologia.
Encoraje a diversidade na comunidade de desenvolvedores de IA, com o objetivo de garantir a inclusão de diferentes perspectivas e garantir que a tecnologia seja projetada para beneficiar toda a sociedade.
Esses são apenas alguns exemplos de boas práticas que podem ajudar a garantir o uso responsável e ético da IA. A implementação dessas práticas pode ajudar a garantir que a IA seja uma ferramenta positiva para a sociedade e promova o bem-estar humano.
O que as escolas e universidades podem fazer para preparar os alunos para o futuro da inteligência artificial?
As escolas e universidades podem desempenhar um papel fundamental na preparação dos alunos para o futuro da inteligência artificial, fornecendo treinamento e educação sobre programação, análise de dados, ética e responsabilidade social. Também é importante que as instituições de ensino incentivem a criatividade e o pensamento crítico, para que os alunos possam se adaptar às mudanças em constante evolução no campo da inteligência artificial
Finalmente, qual é a mensagem que você gostaria de transmitir às pessoas comuns em relação à inteligência artificial?
O público em geral pode adotar algumas medidas para se proteger dos riscos da IA. Em primeiro lugar, é importante que as pessoas entendam como a tecnologia funciona e quais são suas implicações para a sociedade.
Além disso, as pessoas devem estar cientes de como seus dados estão sendo coletados e utilizados pelas empresas que desenvolvem e utilizam IA. Elas devem tomar medidas para proteger sua privacidade e garantir que seus dados não sejam utilizados de forma indevida.
Por fim, as pessoas devem estar atentas aos possíveis vieses e discriminações que podem surgir do uso da IA. Elas devem ser críticas
Muito obrigado, professor, por compartilhar suas perspectivas conosco hoje. Antes de encerrarmos, gostaria de pedir que você compartilhe algumas palavras finais sobre o futuro da IA e o que devemos estar atentos nos próximos anos.
Certamente, a IA continuará a ter um impacto cada vez maior em nossas vidas, e é essencial que entendamos e gerenciemos seus efeitos. Precisamos estar atentos aos desafios éticos e sociais que a IA pode apresentar, e é importante que trabalhemos juntos como sociedade para garantir que a IA seja usada para o bem comum. Além disso, precisamos investir em educação e desenvolvimento de habilidades para nos preparar para um futuro em que a IA desempenhará um papel ainda mais central em nossa vida cotidiana. Acredito que se fizermos isso, podemos construir um futuro próspero e equitativo para todos.
Comente