O mantra da tecnologia moderna é melhorar e inovar continuamente. Faz sentido, à medida que nos esforçamos para buscar formas mais aprimoradas de realizar processos, ações e atividades.


A automação e o aprendizado de máquina, por exemplo, são usados ??atualmente em muitos setores para simplificar processos básicos e remover a repetição da rotina de um trabalhador normal. Para não mencionar, as máquinas tendem a ser mais eficientes e menos intensivas em recursos. Um sistema robótico ou automatizado continua a funcionar em seu desempenho definido, nunca se cansando, ficando com fome ou sendo queimado.


À medida que criamos soluções mais inovadoras como sociedade, também nos propomos a quedas mais duras e prejudiciais? Em relação à IA, por exemplo, abrimos os portões para ataques potencialmente mais perigosos e comuns?


Não é segredo que a tecnologia à nossa disposição pode ser usada tanto para o bem quanto para o mal, depende apenas de quem tem controle e posse dos sistemas necessários. Com AI, quem está verdadeiramente no controle? É possível que hackers e partes inescrupulosas aproveitem para criar mais confusão e problemas para o resto de nós?


A IA moderna representa um risco de segurança cibernética?

Um estudo recente, feit por 25 pesquisadores técnicos e de políticas públicas de Cambridge, Oxford e Yale, juntamente com especialistas em privacidade e militares, revela um risco potencial para o uso indevido da IA por estados desonestos, criminosos e outras partes inescrupulosas. Uma lista de ameaças potenciais viria com ramificações digitais, físicas e políticas, dependendo de como os sistemas e ferramentas foram aproveitados, usados e estruturados.


O estudo se concentra especificamente em desenvolvimentos plausíveis e baseados na realidade que podem ou podem acontecer nos próximos cinco anos. Em vez de um cenário “e se”, a ideia é mais um “quando” ao longo da próxima década.


Não há razão para se alarmar ainda: o jornal não diz explicitamente que a IA é perigosa ou definitivamente será usada para prejudicar a sociedade moderna, apenas que há uma série de riscos evidentes.


De fato, um pesquisador do Instituto de Futuro da Humanidade de Oxford, chamado Miles Brundage, disse: "Todos concordamos que há muitas aplicações positivas da IA".


Ele também afirma que “havia uma lacuna na literatura em torno da questão do uso malicioso”. Não é tão grave assim, mas deve servir como um aviso. Se pretendemos usar a IA mais abertamente no futuro, o que certamente fazemos, então precisamos propor medidas mais avançadas de segurança e privacidade para proteger organizações, cidadãos e dispositivos.


Com veículos autônomos - controlados principalmente por uma IA baseada em computador - é possível que hackers tenham acesso a esses veículos em movimento e assumam o controle. Em nenhum momento da imaginação, eles poderiam facilmente afastar veículos da estrada, desengatar bloqueios e vários recursos, ou muito pior.


Imagine drones comerciais e militares sendo transformados em armas de acesso remoto usadas por shadow parties e criminosos?


Esses são, é claro, os piores cenários que só acontecerão se os administradores e desenvolvedores necessários não gastarem muito tempo criando segurança e proteções robustas na base desses dispositivos.


Agora, o risco é equilibrado

Imagine uma caixa, oscilando na beira de um penhasco ou equilibrando-se uniformemente em uma borda. Isso pode ser comparado ao estado atual da IA, aprendizado de máquina e ferramentas similares de rede baseadas em neural. Eles podem e provavelmente serão usados ??para causar danos, mas os riscos também podem ser mitigados se a segurança for tratada adequadamente. Um esquema adequado de autenticação e controle - para bloquear o acesso não autorizado - é apenas o começo.


Os hackers podem aproveitar a tecnologia, sim, e alguns relatam uma onda de ataques de IA que se aproximam, mas é importante lembrar que a tecnologia também pode ser usada para fazer o oposto, impedindo que eles ocorram com mais frequência e em instâncias muito maiores.


De acordo com a Câmara dos Lordes , o comitê acredita que “o Reino Unido está em uma posição forte para ser um líder mundial no desenvolvimento da IA”.


Durante uma comunicação recente, eles revelaram que o país tem uma “oportunidade única de moldar a IA positivamente”, o que poderia ser usado para o “benefício do público [...], ao invés de passivamente [aceitar] suas consequências [negativas]”.


Deve ser desenvolvido, mantido e implantado para defender princípios éticos e positivos. Isso significa reter os direitos de dados e a privacidade de indivíduos, famílias e comunidades. Isso também significa educar todos sobre o uso potencial e os efeitos da tecnologia. Além disso, deve haver limitações e sistemas para impedir “poder autônomo de magoar, destruir ou enganar” a raça humana como um todo.


O comitê da Câmara dos Lordes acredita que essa abordagem pode ser mantida com o estabelecimento de um código de IA transetorial, adotado em escala nacional e internacional.


Neste ponto, não sabemos ao certo se as promessas da Câmara dos Lordes serão ou não verdadeiras. O futuro é aberto, tão aberto quanto jamais será para as tecnologias de IA e aprendizado de máquina. No entanto, com o apoio, desenvolvimento e assistência apropriados, podemos avançar sem criar um sistema que cause danos generalizados.