O desenvolvimento do Google Health ao longo da última década representa um caso contundente de se compreender o que está em jogo quando sistemas de inteligência artificial são introduzidos no campo da saúde.
O debate público costuma enquadrar a questão em termos de inovação tecnológica, privacidade de dados, eficiência hospitalar ou risco de vieses estatísticos. Embora essas camadas sejam relevantes, há algo mais profundo em movimento: uma transformação do locus da interpretação clínica.
Não se trata apenas de “usar IA na medicina”, mas de deslocar a autoridade de compreensão que orienta como a experiência do paciente é reconhecida, narrada e tratada. É aqui que a fenomenologia social de Alfred Schutz torna-se decisiva para uma crítica sine qua non.
Schutz reclama que toda compreensão humana se funda em um mundo vivido (Lebenswelt), uma textura de significados pré-reflexivos que organizam como percebemos, avaliamos e decidimos. A experiência não é uma coleção de dados dispersos; esta é habitada, situada, envolta em ritmos temporais, expectativas e sentidos compartilhados.
Quando um paciente diz “a dor começou quando eu perdi minha mãe”, essa frase não é um dado periférico ou sentimental: revela o horizonte de relevância no qual o sintoma se tornou realidade para aquele corpo, naquela biografia, naquela temporalidade emocional. Uma medicina que ignora isso não apenas empobrece o cuidado: destrói sua condição de possibilidade.
O Google Health, em sua primeira fase (2008–2012), buscou unificar registros médicos em um único repositório digital. Seu fracasso, justificado oficialmente por problemas de interoperabilidade, expõe algo mais essencial: a vida clínica não é arquivável. O sentido, assim, não cabe em campos de formulário. A doença não começa no exame; começa no corpo vivido do tempo, no modo como alguém percebe-se enfraquecendo, preocupando-se, pedindo ajuda. Ao tentar transformar essa experiência em uma estrutura administrativa homogênea, o projeto esbarrou no limite antropológico da compressão do sentido.
É na segunda fase, sem embargo, a partir de 2018, que a questão se torna estruturalmente mais grave. Agora, o Google Health abandona o papel de plataforma de armazenamento e se reposiciona como plataforma preditiva: um sistema capaz de inferir riscos, sugerir diagnósticos, antecipar deteriorações. Mamografias, retinografias e sinais vitais tornam-se entradas para modelos estatísticos treinados em milhões de casos (Johnson et al., 2021).
A promessa é sedutora: reduzir o erro humano, acelerar triagem, expandir acesso, padronizar cuidado. Mas padronizar o cuidado não é um gesto neutro.
A padronização opera a partir de uma lógica de equivalência: dois sinais são equivalentes se geram o mesmo padrão. Contudo, na experiência vivida, nenhuma equivalência é total. A dor que surge após o luto não é equivalente à que surge após uma queda; a febre que aparece em alguém que cuida de três filhos não é vivida como a febre de alguém que mora sozinho. A situação altera a significação do sintoma.
Quando a IA médica classifica sintomas apenas por sua forma quantificável, esta apaga o contexto, convertendo sofrimento em probabilidade. Não é má intenção, é o modo como o modelo funciona. A IA não “não quer” compreender; não pode compreender. Compreender é entrar no mundo do outro, um modelo não possui mundo.
Isso me faz crer em um leva ponto crítico: não basta perguntar se a IA decide corretamente, é preciso perguntar se ela decide compreendendo. E, se não compreende, o que acontece com a responsabilidade ética?
Michael Barber (1991) nos oferece uma chave interpretativa decisiva. O teólogo questiona a crítica comum de que Schutz teria negligenciado a ética. Barber responde que, longe de não possuir ética, Schutz opera uma ética da compreensão responsável: só é legítimo agir sobre o outro quando reconhecemos o horizonte no qual sua ação ou sofrimento adquire sentido. A ética, portanto, não está no julgamento, mas na preparação do julgamento. É uma ética antes da norma; uma ética como modo de ver.
Aplicada ao contexto da IA médica, essa formulação exige uma primeira tese forte. O que digo é: se a IA não participa do mundo vivido do paciente, parece que não pode ser agente ético. Isso não significa que ela não possa participar do processo ético. Aqui está o ponto estratégico:
A ética pode ser instrumentalizada, não como moral externa, mas como arquitetura interna de alerta. Em outras palavras: A IA pode ser projetada para reconhecer quando o sistema diz não compreender. Esse é o núcleo daquilo que podemos chamar de adequação interpretativa embutida. Quando há divergência entre padrão estatístico e narrativa clínica, a máquina sinaliza.
Quando o contexto altera o sentido do sintoma, a máquina devolve a interpretação ao humano. Quando a dúvida emerge, a máquina convoca o encontro. Nesse modelo, o algoritmo não substitui, o sistema restitui. Não substitui a escuta, sustenta a escuta. Não elimina o humano, reafirma que o humano é o lugar da compreensão. E, nesse movimento, a IA deixa de ser árbitro moral para tornar-se instrumento ético.
O Google Health, portanto, não é apenas um caso tecnológico. Figura em um campo de batalha epistemológico sobre o que significa compreender alguém. O risco não está no erro de diagnóstico, mas na reorganização silenciosa das estruturas simbólicas que definem quem é visto, quem é ouvido e como o sofrimento é interpretado.
A pergunta, então, não é: “Podemos usar IA na medicina?”, mas sim: “Como impedir que a IA destrua o próprio espaço ético onde o cuidado acontece?”. A resposta schutziana é clara: Não se trata de rejeitar a IA, sem nenhum embargo, de inscrever a possibilidade do encontro humano como condição de seu funcionamento.
