Apesar das nossas últimas publicações sobre problemas sérios com a IA (inteligência artificial), as pessoas continuam a confiar partes importantes aos assistentes robôs. Sistemas autodidatas auxiliam juízes e médicos a tomarem decisões, e são capazes de prever crimes que ainda não ocorreram. Ainda assim, usuários desses sistemas não tem completa consciência de como os sistemas chegam a essas conclusões.
Todos de pé, o tribunal está em sessão
Nas cortes americanas, IA é implementada em decisões relacionadas às sentenças, medidas preventivas e mitigação. Depois de estudar os dados relevantes, os sistemas de IA consideram se o suspeito é suscetível à reabilitação ou reincidência. Essa decisão pode converter a liberdade condicional em uma sentença ou fiança.
Por exemplo, Eric Loomis recebeu sentença de seis anos de cadeia por dirigir um carro em que um passageiro atirou em um prédio. A decisão foi baseada no algoritmo COMPAS, que avalia o perigo provocado por indivíduos à sociedade. O COMPAS foi alimentado com o perfil do acusado e ficha criminal, o qual identificou como “indivíduo de alto risco à comunidade”. A defesa recorreu da decisão alegando que os detalhes do algoritmo não eram claros, tornando impossível avaliar a justiça de suas conclusões. O tribunal rejeitou esse argumento.
Videntes eletrônicos: AI como assistente policial
Algumas leis chinesas foram mais adiante: por meio de algoritmos identificam criminosos em potencial. Câmeras de reconhecimento facial monitoram o público e reportam às autoridades se algo suspeito aparece. Por exemplo, alguém que compre uma quantidade muito grande de fertilizante pode estar preparando um ataque terrorista. Alguém que age de forma suspeita pode ser preso e enviado para um campo de reeducação.
Tecnologias preventivas contra crimes também estão em desenvolvimento em outros países. Policiais em algumas partes dos Estados Unidos e no Reino Unido já as utilizam para prever a ocorrência do próximo incidente. Muitos fatores são considerados: o histórico de crimes da área, estado socioeconômico, até a previsão do tempo. Nota-se, que desde a implementação dessas ferramentas nos distritos de Chicago, crimes com arma de fogo caíram em um terço.
O computador vai atendê-lo agora
Novas tecnologias também são utilizadas na área de saúde. Médicos artificiais realizam consultas em pacientes, fazem diagnósticos, analisam exames, e assistem cirurgiões durante operações.
Um dos sistemas de autoaprendizado mais conhecido na área de saúde é o IBM Watson Health. Médicos ensinam a IA a diagnosticar doenças e a prescrever terapia. Watson Health recebeu muitos feedbacks positivos. Em 2013, por exemplo, a chance de o supercomputador selecionar o melhor plano de tratamento chegou a 90%.
Entretanto, no verão de 2018, foi revelado que algumas das recomendações do sistema relacionadas ao tratamento de câncer eram impróprias. Em particular, o Watson sugeriu que um paciente com sangramentos severos recebesse um medicamento que intensificaria a perda de sangue. Felizmente, os cenários eram hipotéticos.
Claro, médicos humanos também cometem erros, mas quando IA entra no meio, as linhas de responsabilidade ficam turvas. Um médico de carne e osso arriscaria contradizer um colega digital que foi criado com acesso a centenas de milhares de artigos científicos, livros e estudos de caso? E se não, o médico deve ser responsabilizado pelas consequências negativas?
IA precisa ser transparente
Um dos principais problemas ao usar IA para decidir o destino da humanidade é que esses algoritmos são em geral opacos, e identificar a causa de erros de forma a evitar sua recorrência não é tarefa fácil. Do ponto de vista do desenvolvedor de sistemas de aprendizado automático, isso é compreensível: afinal, quem quer compartilhar conhecimento com competidores em potencial? Entretanto, quando as vidas das pessoas estão em jogo, deve o segredo comercial ser prioridade?
Políticos ao redor do mundo tentam estruturar leis acerca de IA pouco transparente. Na União Europeia, “titulares de dados” possuem o direito de conhecer quais os fundamentos da IA afetam seus interesses. O Japão percorre caminho similar, mas a lei relevante está apenas em consideração.
Alguns desenvolvedores estão em favor da transparência, mas não avançam profundamente. Um desses se trata da empresa de tecnologia CivicScape, que em 2017 liberou o código fonte de seus sistemas de previsão e policiamento. Entretanto, trata-se de uma exceção.
Agora que o gênio da IA saiu da garrafa, há pouca chance que a humanidade o aprisionará de volta. Isso significa que até que as decisões pautadas em IA se provem justas e precisas, o uso desse recurso deve depender de leis bem feitas e a competência tanto de criadores e usuários de sistemas de autoaprendizado.
from Notícias – Blog oficial da Kaspersky Lab https://ift.tt/2CoPV9Q
0 comentários:
Postar um comentário