- O CEO da Openai diz que o uso do ChatGPT para terapia tem sérios riscos de privacidade
- Seus bate -papos privados podem ser expostos se o OpenAI enfrentar uma ação judicial
- Alimentar seus pensamentos particulares em uma IA opaca também é uma jogada arriscada
Uma das opções de ter um assistente de inteligência artificial (AI), como o Chatgpt em todos os lugares, é que as pessoas começam a se apoiar nele por coisas para as quais nunca foi destinado. De acordo com o CEO da Openai, Sam Altman, isso inclui terapia e conselhos de vida pessoal – mas pode levar a todos os tipos de problemas de privacidade no futuro.
Em um episódio recente do Neste fim de semana passado com Theo von Podcast, Altman explicou uma grande diferença entre falar com um terapeuta humano e usar uma IA para apoio à saúde mental: “No momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, há privilégio legal para isso. Há uma confidencialidade médica.
Um resultado potencial disso é que o OpenAI seria legalmente obrigado a tossir essas conversas, era enfrentar um processo, afirmou Altman. Sem a confidencialidade legal que você recebe ao falar com o médico ou um terapeuta registrado, haveria relativamente pouco para impedir que suas preocupações privadas fossem transmitidas ao público.
Altman acrescentou que o ChatGPT está sendo usado dessa maneira por muitos usuários, especialmente os jovens, que podem ser especialmente vulneráveis a esse tipo de exposição. Mas, independentemente da sua idade, os tópicos de conversa não são o tipo de conteúdo que a maioria das pessoas ficaria feliz em ver revelado ao mundo em geral.
Um empreendimento arriscado
O risco de abrir suas conversas privadas ao escrutínio é apenas um risco de privacidade que enfrenta os usuários do ChatGPT.
Há também a questão de alimentar suas preocupações e preocupações profundamente pessoais em um algoritmo opaco como o ChatGPT, com a possibilidade de que ele possa ser usado para treinar o algoritmo do OpenAI e vazar quando outros usuários fazem perguntas semelhantes.
Essa é uma das razões pelas quais muitas empresas licenciaram suas próprias versões cercadas pelo AI Chatbots. Outra alternativa é uma IA como o Lumo, que é construída pela privacidade Proton Stalwarts e apresenta criptografia de nível superior para proteger tudo o que você escreve.
Inscreva -se em notícias, críticas, opinião, principais acordos de tecnologia e muito mais.
Obviamente, há também a questão de saber se uma IA como o ChatGPT pode substituir um terapeuta em primeiro lugar. Embora possa haver alguns benefícios para isso, qualquer IA está simplesmente regurgitando os dados em que é treinado. Nenhum é capaz do pensamento original, o que limita a eficácia dos conselhos que eles podem lhe dar.
Se você escolhe ou não se abrir para o OpenAI, fica claro que há um campo de privacidade em torno do AI Chatbots, se isso significa falta de confidencialidade ou o perigo de ter seus pensamentos mais profundos usados como dados de treinamento para um algoritmo inescrutável.
Isso exigirá muito esforço e clareza antes de contratar um terapeuta de IA é um empreendimento significativamente menos arriscado.
Você também pode gostar
Postagens relacionadas
Deixe um comentário Cancelar resposta
Você precisa fazer o login para publicar um comentário.
Fique conectado