1.908 – ChatGPT e a atividade Médica – Considerações Importantes

Hoje temos a opinião do amigo e Advogado, Luiz Télvio Valim sobre a sensação do momento: o já famoso ChatGPT. Vamos ao artigo opinativo do Télvio:

Médicos não deveriam usar ChatGPT, e eu vou contar o motivo

Com mais de 100 milhões de usuários em apenas dois meses, o assunto do momento é o ChatGPT, ferramenta de processamento de linguagem natural impulsionada por inteligência artificial da empresa OpenAI.

A forte adesão ao ChatGPT vem forçando as gigantes do software a correrem contra o tempo para conseguirem uma fatia do mercado, seja na posição de concorrente (Google) ou investidor (Microsoft).

O que vem acontecendo com o ChatGPT é um evento meteórico que atinge (e ainda vai atingir mais) praticamente todos os níveis do mercado de trabalho. É de se esperar que, graças a essa “assimilação turbinada, porém estranhamente natural e intuitiva”, muito em breve um sem-número de atividades ligadas à área de informação acabem ou sejam absorvidas por outras áreas.

Pode-se dizer que o advento da popularização do ChatGPT se deve, em grande parte, pela democratização digital acelerada pelas necessidades geradas pelo lockdown e isolamento social na pandemia de Covid-19, o que mudou, entre outras coisas, nossos hábitos de consumo, relações de trabalho e, no caso da Medicina, abriu as portas para as mudanças na relação entre médico e paciente com a possibilidade, por exemplo, da abertura de discussões para a regulamentação da telessaúde.

Em se tratando da Medicina, é importante esclarecer que o lançamento do ChatGPT em 2022 não é, de maneira alguma, seu primeiro contato com a inteligência artificial. Há alguns anos o aprendizado de máquina vem evoluindo e sendo utilizado, por exemplo, na análise de dados na pesquisa e em diagnósticos.

Existem tecnologias que podem detectar o câncer em estágio inicial e, sem dúvida, isso é maravilhoso! Aparentemente a humanidade já passou da fase infantil dos primeiros passos e pode-se dizer que vivemos, no mínimo, uma “pré-adolescência científica”, onde estamos aprendendo a decidir, não mais na teoria, mas na prática, sobre questões éticas e jurídicas em campos importantes como a genética, a cirurgia robótica etc. O futuro chegou e não parou! Segue a passos largos!

Mas, talvez por conta da empolgação do momento e por causa de questões com grande visibilidade e urgência como a bioética, alguns detalhes sutis, mas não menos importantes, estejam passando desapercebidos, podendo causar, a curto e médio prazo um grande impacto na vida de médicos e de pacientes.

O que há de tão arriscado no ChatGPT?

Precisamos reconhecer. O ChatGPT ainda não mostrou todo seu potencial e já causa furor. É fascinante a ideia de fazer algumas perguntas e, “magicamente”, ter sugestões de textos quase prontos para publicação.

O ChatGPT tornou-se “o queridinho” de quem precisa redigir desde uma publicação para redes sociais até um complicado contrato de prestação de serviços. Como ferramenta projetada para processamento de texto e reprodução da linguagem natural, o chatbot exibe a capacidade de interagir nos mais variados estilos de escrita, alimentando e sendo alimentado por cada pergunta e interação de seus milhões de usuários.

A mídia “especializada” ficou apaixonada pelo ChatGPT e suas vantagens, porém, até então uma informação não tem sido divulgada na mesma proporção e velocidade em que se fala das virtudes da plataforma: afinal de contas, o que é feito com os dados inseridos na plataforma?

Recentemente o alto escalão da Amazon divulgou um alerta aos seus funcionários para que cessassem de utilizar o ChatGPT em atividades relacionadas à empresa para que não houvesse vazamento de dados confidenciais. Esse alerta se deu pelo receio, totalmente fundamentado, de que qualquer dado inserido na plataforma é assimilado e processado para uso do próprio chatbot.

Isso não é “achismo” ou “paranoia industrial”. É um fato avisado pela OpenAI quando o usuário faz login no ChatGPT que diz, basicamente: “não insira dados sensíveis! As conversas poderão ser acessadas por terceiros para desenvolvimento da plataforma”.

Para o usuário comum que está ali sem grandes pretensões isso pode não ser tão assustador, mas para uma megacorporação, cada detalhe é um segredo industrial.

Ou seja, apesar dos já mal afamados erros de informação propagados pela plataforma, a grande falha (e a menos divulgada) do ChatGPT é a incapacidade de manutenção do SIGILO.

Lamento informar. Sendo muito direto, basicamente, não existe sigilo, nem garantia, nem promessa de sigilo sobre os dados que são inseridos no ChatGPT. Tudo que é escrito no chatbot, tanto no ambiente web quanto em sua API, fica registrado e pode ser acessado por terceiros, ou seja, todos os programadores, colaboradores e quem quer que a empresa permita ter acesso aos arquivos. Quando você acessa a plataforma, literalmente está dando uma carta branca para qualquer um ler o que você escreveu.

Essa é uma falha extremamente preocupante e que, sem sombra de dúvida, inviabiliza o ChatGPT para uso no ambiente médico, uma vez que, um dos alicerces dos serviços de Saúde é a preservação da privacidade do paciente. E essa responsabilidade não se restringe ou se limita ao médico. Todos os profissionais na ambiência hospitalar devem manter o sigilo e podem responder civil ou criminalmente diante de um vazamento de dados do paciente.

Ou seja, mesmo que o médico não trate diretamente de casos utilizando o ChatGPT, é de extrema urgência que todos os colaboradores daquela instituição tenham consciência de que, pelo bem do sigilo médico, jamais se deve inserir quaisquer dados confidenciais, especialmente de pacientes, no chatbot.

É importante lembrar que qualquer ferramenta tecnológica deve ser usada com responsabilidade, considerando suas implicações éticas e legais, mas especialmente no caso do ChatGPT, deixo a seguinte pergunta: se o sigilo é tão importante para uma empresa como a Amazon, cuja maior (ou única) preocupação é ganhar ou perder dinheiro, por que não o seria para um médico, cuja responsabilidade sobre a privacidade do paciente é tão grande que está expressa, não só no Código de Ética Médica, mas também no Código Penal Brasileiro?

Colaboração: Luiz Télvio Valim, Advogado especialista em Direito Médico e Defesa Médica, Advogado do Sindicato dos Médicos do Espírito Santo, e da Associação Médica do Espírito Santo.
Presidente do Sindicato dos Advogados do Espírito Santo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *