1.908 - ChatGPT e a atividade Médica - Considerações Importantes

Hoje temos a opinião do amigo e Advogado, Luiz Télvio Valim sobre a sensação do momento: o já famoso ChatGPT. Vamos ao artigo opinativo do Télvio:

Médicos não deveriam usar ChatGPT, e eu vou contar o motivo

Com mais de 100 milhões de usuários em apenas dois meses, o assunto do momento é o ChatGPT, ferramenta de processamento de linguagem natural impulsionada por inteligência artificial da empresa OpenAI.

A forte adesão ao ChatGPT vem forçando as gigantes do software a correrem contra o tempo para conseguirem uma fatia do mercado, seja na posição de concorrente (Google) ou investidor (Microsoft).

O que vem acontecendo com o ChatGPT é um evento meteórico que atinge (e ainda vai atingir mais) praticamente todos os níveis do mercado de trabalho. É de se esperar que, graças a essa “assimilação turbinada, porém estranhamente natural e intuitiva”, muito em breve um sem-número de atividades ligadas à área de informação acabem ou sejam absorvidas por outras áreas.

Pode-se dizer que o advento da popularização do ChatGPT se deve, em grande parte, pela democratização digital acelerada pelas necessidades geradas pelo lockdown e isolamento social na pandemia de Covid-19, o que mudou, entre outras coisas, nossos hábitos de consumo, relações de trabalho e, no caso da Medicina, abriu as portas para as mudanças na relação entre médico e paciente com a possibilidade, por exemplo, da abertura de discussões para a regulamentação da telessaúde.

Em se tratando da Medicina, é importante esclarecer que o lançamento do ChatGPT em 2022 não é, de maneira alguma, seu primeiro contato com a inteligência artificial. Há alguns anos o aprendizado de máquina vem evoluindo e sendo utilizado, por exemplo, na análise de dados na pesquisa e em diagnósticos.

Existem tecnologias que podem detectar o câncer em estágio inicial e, sem dúvida, isso é maravilhoso! Aparentemente a humanidade já passou da fase infantil dos primeiros passos e pode-se dizer que vivemos, no mínimo, uma “pré-adolescência científica”, onde estamos aprendendo a decidir, não mais na teoria, mas na prática, sobre questões éticas e jurídicas em campos importantes como a genética, a cirurgia robótica etc. O futuro chegou e não parou! Segue a passos largos!

Mas, talvez por conta da empolgação do momento e por causa de questões com grande visibilidade e urgência como a bioética, alguns detalhes sutis, mas não menos importantes, estejam passando desapercebidos, podendo causar, a curto e médio prazo um grande impacto na vida de médicos e de pacientes.

O que há de tão arriscado no ChatGPT?

Precisamos reconhecer. O ChatGPT ainda não mostrou todo seu potencial e já causa furor. É fascinante a ideia de fazer algumas perguntas e, “magicamente”, ter sugestões de textos quase prontos para publicação.

O ChatGPT tornou-se “o queridinho” de quem precisa redigir desde uma publicação para redes sociais até um complicado contrato de prestação de serviços. Como ferramenta projetada para processamento de texto e reprodução da linguagem natural, o chatbot exibe a capacidade de interagir nos mais variados estilos de escrita, alimentando e sendo alimentado por cada pergunta e interação de seus milhões de usuários.

A mídia “especializada” ficou apaixonada pelo ChatGPT e suas vantagens, porém, até então uma informação não tem sido divulgada na mesma proporção e velocidade em que se fala das virtudes da plataforma: afinal de contas, o que é feito com os dados inseridos na plataforma?

Recentemente o alto escalão da Amazon divulgou um alerta aos seus funcionários para que cessassem de utilizar o ChatGPT em atividades relacionadas à empresa para que não houvesse vazamento de dados confidenciais. Esse alerta se deu pelo receio, totalmente fundamentado, de que qualquer dado inserido na plataforma é assimilado e processado para uso do próprio chatbot.

Isso não é “achismo” ou “paranoia industrial”. É um fato avisado pela OpenAI quando o usuário faz login no ChatGPT que diz, basicamente: “não insira dados sensíveis! As conversas poderão ser acessadas por terceiros para desenvolvimento da plataforma”.

Para o usuário comum que está ali sem grandes pretensões isso pode não ser tão assustador, mas para uma megacorporação, cada detalhe é um segredo industrial.

Ou seja, apesar dos já mal afamados erros de informação propagados pela plataforma, a grande falha (e a menos divulgada) do ChatGPT é a incapacidade de manutenção do SIGILO.

Lamento informar. Sendo muito direto, basicamente, não existe sigilo, nem garantia, nem promessa de sigilo sobre os dados que são inseridos no ChatGPT. Tudo que é escrito no chatbot, tanto no ambiente web quanto em sua API, fica registrado e pode ser acessado por terceiros, ou seja, todos os programadores, colaboradores e quem quer que a empresa permita ter acesso aos arquivos. Quando você acessa a plataforma, literalmente está dando uma carta branca para qualquer um ler o que você escreveu.

Essa é uma falha extremamente preocupante e que, sem sombra de dúvida, inviabiliza o ChatGPT para uso no ambiente médico, uma vez que, um dos alicerces dos serviços de Saúde é a preservação da privacidade do paciente. E essa responsabilidade não se restringe ou se limita ao médico. Todos os profissionais na ambiência hospitalar devem manter o sigilo e podem responder civil ou criminalmente diante de um vazamento de dados do paciente.

Ou seja, mesmo que o médico não trate diretamente de casos utilizando o ChatGPT, é de extrema urgência que todos os colaboradores daquela instituição tenham consciência de que, pelo bem do sigilo médico, jamais se deve inserir quaisquer dados confidenciais, especialmente de pacientes, no chatbot.

É importante lembrar que qualquer ferramenta tecnológica deve ser usada com responsabilidade, considerando suas implicações éticas e legais, mas especialmente no caso do ChatGPT, deixo a seguinte pergunta: se o sigilo é tão importante para uma empresa como a Amazon, cuja maior (ou única) preocupação é ganhar ou perder dinheiro, por que não o seria para um médico, cuja responsabilidade sobre a privacidade do paciente é tão grande que está expressa, não só no Código de Ética Médica, mas também no Código Penal Brasileiro?

Colaboração: Luiz Télvio Valim, Advogado especialista em Direito Médico e Defesa Médica, Advogado do Sindicato dos Médicos do Espírito Santo, e da Associação Médica do Espírito Santo.
Presidente do Sindicato dos Advogados do Espírito Santo

Getulio Apolinário Ferreira

Colunista

Escritor pela Qualitymark Editora, Consultor organizacional, Engenheiro na linha da gestão japonesa com dois estágios no Japão nas áreas de projetos criativos dos Thinking Groups da Kawasaki Steel, Qualidade Total, Kaizen/Inovação e programas Zero Defeitos estabelecendo um forte link com o Programa de Qualidade Total da CST, hoje Arcelor Mittal. Getulio participa também, com muita honra, da Academia Brasileira da Qualidade – ABQ onde estão os profissionais de maior destaque nas áreas da Qualidade e Inovação do Brasil.

Escritor pela Qualitymark Editora, Consultor organizacional, Engenheiro na linha da gestão japonesa com dois estágios no Japão nas áreas de projetos criativos dos Thinking Groups da Kawasaki Steel, Qualidade Total, Kaizen/Inovação e programas Zero Defeitos estabelecendo um forte link com o Programa de Qualidade Total da CST, hoje Arcelor Mittal. Getulio participa também, com muita honra, da Academia Brasileira da Qualidade – ABQ onde estão os profissionais de maior destaque nas áreas da Qualidade e Inovação do Brasil.