- 30% dos britânicos estão fornecendo à IA Chatbots com informações pessoais confidenciais
- Pesquisas da NYMVPN mostram que os dados da empresa e do cliente também estão em risco
- Enfatiza a importância de tomar precauções, como usar uma VPN de qualidade
Quase um em cada três britânicos compartilha dados pessoais sensíveis com Ai chatbots Como o ChatGPT da OpenAi, de acordo com a pesquisa da empresa de segurança cibernética Nymvpn. 30% dos britânicos alimentam a IA Chatbots com informações confidenciais, como dados de saúde e bancos, potencialmente colocando sua privacidade – e a de outras pessoas – em risco.
Isso está compartilhando com pessoas como Chatgpt e Google Gemini Vem apesar de 48% dos entrevistados expressarem preocupações de privacidade sobre a IA Chatbots. Isso indica que o problema se estende ao local de trabalho, com os funcionários compartilhando dados confidenciais da empresa e do cliente.
As descobertas da NYMVPN vêm após uma série de violações de dados recentes de alto perfil, principalmente o Marks & Spencer Cyber Attackque mostra o quão facilmente os dados confidenciais podem cair nas mãos erradas.
“A conveniência está sendo priorizada sobre a segurança”
A pesquisa da NYMVPN revela que 26% dos entrevistados admitiram divulgar informações financeiras relacionadas a salários, investimentos e hipotecas aos chatbots da IA. Mais arriscado ainda, 18% de cartão de crédito compartilhado ou dados da conta bancária.
24% dos pesquisados pela NYMVPN admitem ter dados compartilhados de clientes – incluindo nomes e endereços de email – com a IA Chatbots. Ainda mais preocupante, 16% carregaram dados financeiros da empresa e documentos internos, como contratos. Isso apesar de 43% expressarem preocupação com os dados confidenciais da empresa sendo vazados pelas ferramentas de IA.
“As ferramentas de IA tornaram -se rapidamente parte de como as pessoas trabalham, mas estamos vendo uma tendência preocupante em que a conveniência está sendo priorizada em relação à segurança”, disse Harry Halpin, CEO da NYMVPN.
EM, Cooperativoe Adidas todos estiveram nas manchetes pelos motivos errados, tendo sido vítima de violações de dados. “As violações de alto perfil mostram o quão vulneráveis até as principais organizações podem ser e, quanto mais dados pessoais e corporativos que são alimentados na IA, maior o alvo para os cibercriminosos”, disse Halpin.
A importância de não compartilhar demais
Como quase um quarto dos entrevistados compartilham os dados do cliente com a AI Chatbots, isso enfatiza a urgência de empresas que implementam diretrizes claras e políticas formais para o uso de IA no local de trabalho.
“Funcionários e empresas precisam urgentemente pensar em como estão protegendo a privacidade pessoal e os dados da empresa ao usar as ferramentas de IA”, disse Halpin.
Embora evitar a IA Chatbots seja a solução ideal para a privacidade, nem sempre é a mais prática. Os usuários devem, no mínimo, evitar compartilhar informações confidenciais com a AI Chatbots. As configurações de privacidade também podem ser ajustadas, como desativar o histórico de bate -papo ou optar por não participar do treinamento modelo.
Uma VPN pode adicionar uma camada de privacidade ao usar chatbots da AI, como ChatGPT, criptografando o tráfego da Internet de um usuário e o endereço IP original. Isso ajuda a manter a localização do usuário privada e impede que seu ISP veja o que está fazendo online. Ainda assim, até o Melhor VPN Não é suficiente se dados pessoais sensíveis ainda estiverem sendo alimentados à IA.
Fique conectado