Inteligência Artificial e Ética

Em 18 de março de 2018, por volta das 22h , Elaine Herzberg estava levando a bicicleta por uma rua em Tempe, Arizona, quando foi atingida e morta por um carro autônomo. 

Embora houvesse um operador humano ao volante, um sistema autônomo - inteligência artificial - estava no controle total. Este incidente, como outros que envolvem interações entre pessoas e tecnologias de IA, levanta uma série de questões éticas e proto-legais. 

Quais obrigações morais os programadores do sistema tinham para impedir que sua criação tirasse uma vida humana? E quem foi responsável pela morte de Herzberg? A pessoa no banco do motorista? A empresa testando as capacidades do carro? Os projetistas do sistema de IA, ou até mesmo os fabricantes de seu equipamento sensorial a bordo?

"Inteligência artificial" refere-se a sistemas que podem ser projetados para receber sugestões de seu ambiente e, com base nessas entradas, prosseguir para resolver problemas, avaliar riscos, fazer previsões e executar ações. 

Na era anterior aos poderosos computadores e big data, tais sistemas eram programados por humanos e seguiam regras de invenção humana, mas os avanços da tecnologia levaram ao desenvolvimento de novas abordagens. 

Um deles é o aprendizado de máquina, agora a área mais ativa de IA, na qual os métodos estatísticos permitem que um sistema “aprenda” a partir de dados e tome decisões, sem ser explicitamente programado. Tais sistemas emparelham um algoritmo, ou uma série de etapas para resolver um problema, com uma base de conhecimento ou fluxo - as informações que o algoritmo usa para construir um modelo do mundo.

As preocupações éticas sobre esses avanços concentram-se em um extremo no uso da IA ​​em drones militares mortais, ou no risco de que a IA possa derrubar sistemas financeiros globais. 

Mais perto de casa, a IA estimulou a ansiedade sobre o desemprego, já que os sistemas autônomos ameaçam substituir milhões de motoristas de caminhão e tornam o Lyft e o Uber obsoletos. 

E além dessas considerações sociais e econômicas mais amplas, os cientistas de dados têm preocupações reais sobre preconceitos, sobre implementações éticas da tecnologia e sobre a natureza das interações entre sistemas de IA e humanos, se esses sistemas forem implantados de forma adequada e justa, mesmo nos mais mundanos. aplicações.

Considere uma mudança social aparentemente prosaica: as máquinas já estão recebendo o poder de tomar decisões cotidianas que alteram a vida das pessoas. A inteligência artificial pode agregar e avaliar grandes quantidades de dados que às vezes estão além da capacidade humana de analisar sem ajuda, permitindo que a IA faça recomendações de contratação, determine em segundos a credibilidade dos solicitantes de empréstimo e preveja as chances de os criminosos voltarem a ofender.

Mas essas aplicações levantam questões éticas preocupantes porque os sistemas de IA podem reforçar o que aprenderam com dados do mundo real, amplificando até mesmo riscos familiares, como preconceito racial ou de gênero. 

Os sistemas também podem cometer erros de julgamento quando confrontados com cenários desconhecidos. E como muitos desses sistemas são “caixas-pretas”, as razões de suas decisões não são facilmente acessadas ou entendidas pelos seres humanos - e, portanto, difíceis de questionar ou investigar.

Postar um comentário

0 Comentários