:::: MENU ::::
  • Suitable for all screen sizes

  • Easy to Customize

  • Customizable fonts.

O evento Kaspersky NEXT deste ano apresentou pesquisas e discussões de alguns dos especialistas mais proeminentes da Europa na área de cibersegurança e inteligência artificial. Desde o aprendizado de máquina e IA até a proteção da IdC, eis aqui cinco coisas que aprendemos no evento deste ano, que aconteceu em 14 de outubro, em Lisboa.

Usando IA para tornar o mundo mais justo

Você já pensou em quantas decisões as máquinas tomaram hoje? Ou quantas foram baseadas em gênero, raça ou origem? Provavelmente, você nem percebe quantas decisões são tomadas pela inteligência artificial ao invés de um ser humano. Kriti Sharma, fundador da AI for Good, explicou que algoritmos estão sendo usados ​​o tempo todo para tomar decisões sobre quem somos e o que queremos.

Kriti também ressaltou que o que realmente precisamos fazer para melhorar a inteligência artificial é reunir pessoas de todos os tipos de origens, gêneros e etnias. Aqui você pode assistir ao Ted Talk sobre porque o viés humano influencia a tomada de decisão da máquina aqui.

O impacto da atribuição de gênero à IA

Pense em Alexa, Siri e Cortana. O que todas têm em comum? Usam vozes femininas e são feitas para serem servas obedientes. Por que é assim? A tecnologia está reforçando os estereótipos? Dois painéis de discussão sobre gênero e IA foram investigados. Assistentes digitais têm vozes femininas porque, como vários estudos determinaram, as pessoas se sentem mais confortáveis ​​com as vozes femininas como assistentes digitais. Isso também é um reflexo da sociedade?

Então, o que pode ser feito para combater a desigualdade de gênero na IA? Talvez usar uma voz neutra em termos de gênero ou talvez criar um gênero para robôs e IA. Além de abordar esse problema (e mencionado acima), também é importante ter equipes plurais criando IA, refletindo a diversidade dos usuários atendidos.

Confiamos mais nos robôs do que nas pessoas

Um robô social é um sistema de inteligência artificial que interage com humanos e outros robôs – e que, ao contrário de Siri ou Cortana, tem uma presença física. Tony Balpaeme, professor de robótica da Universidade de Ghent, explicou como os problemas relacionados às interações entre robôs e humanos aumentarão à medida que os robôs se tornarem mais presentes no nosso cotidiano.

Balpaeme descreveu alguns dos experimentos científicos que ele e sua equipe realizaram. Por exemplo, testaram a habilidade de humanos versus a de robôs em extrair informações confidenciais (data de nascimento, endereço ou cidade onde morou na infância, cor favorita etc.) que poderiam ser usadas para redefinir senhas. O engraçado é que os robôs são mais confiáveis ​​do que as pessoas, então é mais provável que as pessoas lhes deem informações confidenciais.

Ele também apresentou um experimento para invasão física. Um grupo de pessoas encarregadas de proteger um edifício ou uma área permite facilmente um robô bonitinho entrar na área. Não há razão para supor que o robô é seguro, mas os humanos assumem que ele é inofensivo – uma tendência altamente explorável. Você pode ler mais sobre robótica social e experimentos relacionados no Securelist.

A IA criará deepfakes muito convincentes

David Jacoby, membro do Kaspersky GReAT, falou sobre engenharia social: chat bots, IA e ameaças automatizadas. Com o tempo, os aplicativos de reconhecimento facial e de voz podem ser explorados por meio de engenharia social ou outros métodos da velha guarda.

Jacoby também falou sobre deepfakes, que estão se tornando muito mais difíceis de detectar. Como elas podem afetar futuras eleições e transmissões de notícias é uma grande preocupação.

O principal problema é a confiança. Depois que a tecnologia for aperfeiçoada, em quem você confiará? A solução, segundo ele, é uma melhor conscientização: educação e novas tecnologias para ajudar os usuários a detectar vídeos falsos.

O estado de segurança na robótica

Dmitry Galov, outro membro do GReAT da Kaspersky, falou sobre o ROS (Sistema de Operação de Robôs, na sigla em inglês), uma estrutura flexível para escrever software de robô. Como muitos outros sistemas, o ROS não foi criado com a segurança em mente e, naturalmente, possui importantes problemas de segurança. Então, antes que produtos baseados em ROS, como robôs sociais e carros autônomos, voem das salas de aula das universidades para os braços dos consumidores, os criadores devem resolver esses problemas. De fato, uma nova versão do ROS está em intenso desenvolvimento. Você pode ler mais no relatório de Galov.

Dica bônus: use preservativos USB

Marco Preuss e Dan Demeter, membros do GReAT da Kaspersky, falaram sobre como as pessoas se protegem contra hackers enquanto viajam a negócios. Você já pensou que poderia haver câmeras escondidas, bugs e espelhos falsos no seu quarto do hotel?
Para aqueles que são levemente paranoicos, este post inclui algumas dicas de segurança de viagem de Preuss e Demeter, que também falaram sobre a importância (se você é realmente paranoico) de usar um “preservativo” USB – sim, eles realmente existem e seu uso é análogo aos produzidos para humanos: se você estiver prestes a carregar o telefone usando uma porta USB desconhecida, vale a pena proteger seu dispositivo com este minúsculo gadget. A boa notícia é que diferentemente dos preservativos normais, eles são reutilizáveis.



from Notícias – Blog oficial da Kaspersky https://ift.tt/346TDjU

0 comentários:

Postar um comentário

A call-to-action text Contact us