A ascensão da inteligência artificial (IA) despertou tanto entusiasmo sobre as possibilidades da tecnologia, quanto preocupações sobre os seus riscos. À medida que a tecnologia de IA evolui, as indústrias em todo o mundo intensificam sua exploração. Como resultado, a legislação para regular a tecnologia de IA também está evoluíndo. A IA, ou mais precisamente seus subconjuntos de aprendizado de máquina (ML) e aprendizado profundo (DL), pode ser transformadora para o setor de segurança física. Mas se não houver uma correta compreensão de seu potencial, estas tecnologias poderão não conseguir satisfazer as expectativas irrealistas ou levar a medos e incertezas desnecessários.
Em seu Guia Mundial sobre Gastos com Inteligência Artificial, a IDC prevê que os gastos globais em sistemas centrados em IA atingirão 154 bilhões de dólares em 2023, um aumento de quase 27% em relação a 2022. A legislação para regulamentar a tecnologia de IA também está evoluindo. Dados do Índice de IA da Universidade de Stanford para 2023 mostram que 37 projetos de lei relacionados à IA foram aprovados em todo o mundo em 2022, com muitos outros em desenvolvimento. Na comunidade científica, a inteligência artificial (IA) refere-se a um cérebro artificial totalmente funcional, autoconsciente, inteligente e que pode aprender, raciocinar e compreender. Isso não existe. O que existe é tecnologia baseada em subconjuntos de tecnologia de IA desenvolvida para “aprender” e usar conjuntos de dados para permitir que os computadores executem tarefas que normalmente requerem inteligência humana.
O aprendizado de máquina (ML) e o aprendizado profundo (DL) são subconjuntos da Inteligência Artificial usados em sistemas de segurança física. Esses algoritmos utilizam dados para detectar e classificar objetos com precisão. Segundo Adriano Salomão, diretor de Engenharia da Genetec Brasil, o ML usa dados de dispositivos de segurança física, como câmeras e sensores, para resolver problemas, fazer previsões e aprimorar tarefas específicas. Já o aprendizado profundo analisa relações entre inputs e outputs, reconhecendo objetos, veículos e indivíduos, ou enviando alertas em casos de violação de barreiras na segurança.
As máquinas são excepcionalmente eficientes em tarefas repetitivas e na análise de grandes conjuntos de dados (como vídeo). É aqui que o estado atual da IA pode trazer os maiores ganhos. O melhor uso do aprendizado de máquina e aprendizado profundo são como ferramentas para vasculhar grandes quantidades de dados para encontrar padrões e tendências que são difíceis de serem identificados pelos humanos. A tecnologia também pode ajudar as pessoas a fazerem previsões ou tirarem conclusões.
“A tecnologia de segurança física normalmente não incorpora o subconjunto de IA denominado modelos de linguagem grande (LLM), usado pelo Chat GPT e outras IAs generativas. Elas foram projetadas para satisfazer os usuários, com respostas que não são necessariamente precisas ou verdadeiras, algo perigoso em um contexto de segurança”, explica Salomão.
Segundo ele, antes de poder ser aplicada em ambientes de segurança, a tecnologia LLM deve primeiro fornecer resultados confiáveis. Hoje, o Chat GPT e ferramentas semelhantes estão todos on-line e cada prompt de texto é usado para treinar a próxima versão. “Os casos de uso de segurança precisariam adotar abordagens em que os modelos são treinados offline, in loco, em um conjunto de dados contido e preciso. Portanto, embora essa tecnologia esteja avançando rapidamente, ainda há muito trabalho a ser feito para que ela seja usada amplamente e com segurança em aplicações de segurança física”, detalha o executivo da Genetec.
Casos de uso de segurança física para IA
A Inteligência Artificial já está transformando as operações de segurança, otimizando tarefas diárias de forma precisa e rápida em grandes volumes de dados. Por exemplo, ela simplifica a busca por um carro vermelho em horas de vídeo, permite a contagem automatizada de pessoas em locais como varejos e aeroportos, viabiliza o reconhecimento de placas para investigações e facilita pagamentos de estacionamento sem contato. Segundo Adriano Salomão, diretor de Engenharia da Genetec Brasil, a segurança física é uma das áreas de maior crescimento na aplicação de tecnologia de IA, com previsão de gastos consideráveis em Sistemas de Inteligência e Prevenção de Ameaças, assim como em Análise e Investigação de Fraudes, conforme a OIDC.
Porém, é preciso esclarecer alguns equívocos quando se fala de IA aplicada na área de segurança física e patrimonial. O primeiro deles é que IA pode automatizar tarefas repetitivas e rotineiras, permitindo que o pessoal de segurança se concentre em atividades mais complexas e estratégicas. No entanto, o julgamento humano, a intuição e as habilidades de tomada de decisão ainda são cruciais na maioria dos cenários de segurança. A IA pode ajudar a aumentar as capacidades humanas e melhorar a eficiência, mas requer supervisão humana, manutenção e interpretação dos resultados.
Outro mito é que os sistemas de vigilância alimentados por IA são altamente precisos e confiáveis. Os sistemas de IA cometem erros. Eles são treinados com base em dados e padrões históricos e sua precisão depende muito da qualidade e diversidade dos dados de treinamento. Subjetividade e limitações nos dados podem levar a resultados tendenciosos ou incorretos. Além disso, podem ser vulneráveis a ataques nos quais se manipulam intencionalmente as entradas do sistema para enganar ou interromper o seu funcionamento.
É também uma fantasia imaginar que IA é capaz de prever incidentes de segurança, pois dependem de dados históricos e padrões conhecidos, tendo dificuldade para detectar ameaças novas ou em evolução. Além disso, os incidentes podem envolver fatores sociais, culturais e comportamentais complexos, que são desafiadores para os algoritmos de IA entenderem e manusearem completamente. Outra questão é que, assim como todas as tecnologias, IA não é inerentemente segura. Seus sistemas podem ser vulneráveis a ataques, como contaminação de dados, evasão de modelo ou acesso não autorizado a informações confidenciais. É crucial implementar medidas de segurança robustas para proteger os sistemas de IA e os dados dos quais eles dependem.
Adotando uma abordagem responsável em relação à IA
Qualquer fabricante que utilize IA em suas ofertas tem a responsabilidade de garantir que a tecnologia seja desenvolvida e implementada de forma responsável e ética. Na Genetec vários princípios guiam a criação, aperfeiçoamento e manutenção de modelos de IA: são utilizados conjuntos de dados que respeitam a regulamentação local de proteção de dados; as soluções são projetadas para cumprir as regulamentações de privacidade atuais e é garantido que cumpram as futuras; os dados são tratados em conjunto com cuidado e o acesso concedido somente a usuários autorizados.
Além disso, sempre que possível são usados dados sintéticos que não contêm nenhuma informação identificável para proteger a privacidade dos dados. Os dados sintéticos ajudam os cientistas de dados a alimentar modelos de aprendizado de máquina com dados para representar qualquer situação. Os dados de teste sintético podem refletir cenários “e que tal se”, tornando-os uma maneira ideal de testar uma hipótese ou ser modelo para vários resultados.
Outro princípio fundamental é garantir que os modelos de IA não sejam usados para tomar decisões críticas e que um humano esteja sempre informado e que os dados sejam apresentados de forma que o humano possa tomar uma decisão informada e são feitos Investimentos contínuos na confiança nos modelos, adicionando regularmente mais dados e experimentando os algoritmos. A companhia procura sempre minimizar a subjetividade dos modelos, testando variáveis continuamente.
“Como qualquer nova tecnologia, reconhecer os riscos da IA não elimina os seus potenciais benefícios. Com uma aplicação criteriosa e supervisão adequada, a IA pode aumentar a eficiência e a segurança, ao mesmo tempo que minimiza os impactos negativos. Tem vantagens significativas na automação de tarefas repetitivas que geralmente consomem uma quantidade significativa de tempo humano. Garantir que essa tecnologia seja usada com responsabilidade é trabalho de todos. A regulamentação pode ajudar a manter o equilíbrio entre pesos e medidas rumo a um mundo mais conectado e habilitado para IA, mas é preciso entender que ela veio para ficar e precisaremos aprender a inovar e lidar com ela no dia a dia”, conclui Salomão.