33Giga Tecnologia para pessoas

Segurança

Opinião: os riscos ocultos da IA para a privacidade

*Por Wanderley Brandão // Não é segredo que a Inteligência Artificial é a tecnologia do momento. Com o desejo de não perder essa onda, muitas empresas e pessoas estão embarcando na solução que vem ganhando novos espaços a cada dia. No entanto, à medida que cresce o uso, cresce também uma preocupação válida: qual o impacto da IA diante da proteção aos nossos dados? A inquietação ganhou volume principalmente no ano passado, quando a Itália baniu temporariamente o ChatGPT em seu território. À época, o órgão regulador de dados do país, o General Data Protection Regulation (GDPR), questionou o uso massivo de dados públicos que a ferramenta se apropria para “aprender”.

Quer ficar por dentro do mundo da tecnologia e ainda baixar gratuitamente nosso e-book Manual de Segurança na Internet? Clique aqui e assine a newsletter do 33Giga

O episódio acendeu um alerta e abriu discussões sobre até que ponto as informações que circulam na internet são realmente “livres”. Até porque, mesmo que as redes sociais deixem nossos dados “expostos”, isso não quer dizer que qualquer um possa usar essas informações sem limites. Há normas e regras que protegem esse conteúdo de usos indevidos, inclusive por empresas de IA.

Para resolver o caso, a OpenAI, empresa que é responsável pelo ChatGPT, readequou suas práticas para respeitar às requisições da GDPR, mostrou evidências quanto ao uso adequado de dados conforme à legislação e implementou um mecanismo de controle de acesso contra menores de 13 anos de idade. Apesar da resolução, a situação acabou levantando uma nova questão: como garantir que nossos dados estão mesmo protegidos, especialmente com o avanço tão rápido das IAs?

Um dos maiores motivos dessa preocupação é que ainda sabemos muito pouco sobre como as IAs armazenam e usam os dados que recebem. Quando a gente faz uma pergunta à tecnologia, a plataforma armazena as informações utilizadas para responder a solicitação, usando-as para “aprimorar” seu sistema. Utilizando novamente a OpenAI como exemplo, a empresa se envolveu em outra polêmica recente ao admitir que guardava todos os dados colhidos durante as interações. Após ser alvo de críticas, a companhia alterou seu modelo para uma política que apaga o conteúdo após 30 dias e pede permissão ao usuário para processá-los.

Além da preocupação envolvendo o uso dos dados em si, o fato das empresas armazenarem os conteúdos abre o precedente ainda para o risco de haver vazamento de informações. Estas situações geram questionamentos quanto à aderência das IAs às regulamentações de proteção e privacidade de dados.

Uma das normas mais importantes nesse contexto foi desenvolvida pela ISO, organização internacional responsável por garantir a padronização de atividades. Recentemente, o órgão anunciou a ISO/IEC 42001 com foco justamente para a IA. O código afirma que empresas responsáveis pelas soluções em IA devem orientar seus processos à “gestão de preocupações relacionadas à credibilidade de sistemas de IA tais como segurança, proteção, equidade, transparência, qualidade de dados e qualidade em seu ciclo de vida”.

Preocupação empresarial

Apesar do passo importante, ainda é preciso estar atento às informações que acabam “compartilhadas” com a IA. Vamos pensar, por exemplo, no caso do mundo corporativo. Para empresas, todo o cenário acaba sendo delicado, uma vez que lidar com dados sensíveis à segurança é tópico essencial. Normalmente, elas têm políticas de privacidade rigorosas, que até mesmo impedem colaboradores de compartilharem informações internas em plataformas externas, inclusive em IAs. Afinal, qualquer uso indevido de dados que sejam protegidos pela LGPD pode levar a sanções legais e prejudicar a imagem da empresa.

Um caso recente interessante ocorreu com a Samsung, que proibiu o uso de ferramentas de IA. A medida foi tomada após o uso, por seus engenheiros, de código-fonte confidencial de aplicações na ferramenta. Como consequência, os dados sigilosos acabaram vazados ao mercado, gerando uma enorme dor de cabeça à marca. Após o caso, a gigante sul-coreana optou por excluir a solução do seu dia a dia ao apontar que não existe uma segurança sobre onde as informações enviadas às ferramentas serão armazenadas ou serão utilizadas.

Apesar da decisão polêmica da empresa, é difícil imaginar um futuro em que a IA se distancia tanto assim do mundo empresarial. Até porque, estamos falando de uma das tecnologias mais disruptivas dos últimos tempos. Nesse contexto, é fundamental que as companhias invistam em práticas de segurança sólidas para proteger as informações. Camadas adicionais de segurança devem ser implementadas para evitar o risco de vazamento de dados. Algumas delas são:

  • Classificação das informações: os referenciais produzidos por uma organização devem ser rotulados quanto à sua sensibilidade, como informações públicas, restritas ou confidenciais. Medidas preventivas devem ser adequadas a diferentes tipos de dado e isto deve ser amplamente divulgado.
  • Conscientização dos colaboradores: campanhas de conscientização sobre segurança da informação e proteção e privacidade de dados devem ser frequentes. As regras da empresa para o uso de dados, as normas e compliances aos quais elas estão sujeitas devem ser claras a todos os colaboradores. Além disso, a liderança deverá estar engajada na promoção destes valores e disposta a aplicar penalidades para casos de violações.
  • Políticas e procedimentos: Garantir que exista métodos e processos internos claros e acessíveis a todos os funcionários é fundamental para proporcionar a segurança e privacidade dos dados.
  • Ferramentas de proteção ao vazamento de dados (DLP – Data Loss Prevention): Tais soluções costumam ser custosas e de implementação complicada, porém são bastante eficientes para assegurar a proteção das informações sigilosas.

É evidente que a IA veio para transformar o mercado e agregar valor às empresas. Ao mesmo tempo, porém, ela exige atenção redobrada em relação à proteção de dados. O caso da Samsung e as regulamentações emergentes, como a ISO/IEC 42001, servem de alerta à importância de um compromisso ético e responsável com o uso das informações. Cabe às instituições, portanto, investir em políticas de segurança e criar uma cultura organizacional que valorize a privacidade e o respeito à legislação. Apenas com essas práticas será possível aproveitar o potencial da IA de forma segura e sustentável, garantindo que a inovação caminhe lado a lado com a proteção dos direitos dos usuários.

* Wanderley Brandão é DPO da Rox Partner, consultoria de tecnologia referência em dados e cibersegurança

Quer saber tudo sobre Universo Sugar? Clique aqui e compre o e-book O Guia dos Sugar Daddy & Sugar Babies por apenas R$ 10