Reclamo que a inteligência artificial só se torna eticamente legítima na saúde quando conserva os princípios da interação humana e incorpora o encontro, não como ornamento ético, mas como arquitetura interna do algoritmo. A ética da IA não reside em proclamações de transparência, sem embargo, na possibilidade de que o olhar técnico ainda reconheça o rosto do outro. A medicina digital, quando se encalacra na gestão e na eficiência, vilipendia a própria ideia de cuidado.
Em Data Ethics, AI, and Accompaniment (2022), Paul Scherz demonstra que o value-based care, ao submeter a atenção médica a métricas de custo e predição, converte o paciente em população estatística. O profissional, reeducado por dashboards e índices de risco, aprende a ver sem realmente olhar. Nesse regime, a cura cede espaço à contenção de gastos, e o acompanhamento pastoral é substituído por vigilância digital.
O “paradigma tecnocrático” não descreve uma teoria, mas um hábito moral: o costume de tratar o outro como dado útil. Scherz observa que a repetição dessa prática gera um habitus de objetificação, um modo de perceber o enfermo como variável de controle, não como alter ego. A cura começa a ser mensurada pela lógica dos próceres da eficiência, e é aí que o cuidado se esvazia.
O contraponto jurídico-político surge em Artificial Intelligence and Healthcare (2023), de Natasha H. Williams, que analisa o esforço norte-americano de enquadrar a IA sob um AI Bill of Rights. O documento elenca cinco princípios: (i) segurança dos sistemas, (ii) proteção contra discriminação algorítmica, (iii) privacidade dos dados, (iv) direito à explicação e (v) human fallback, isto é, a possibilidade de recorrer a um humano quando o sistema falha. A intenção parece louvável, mas o efeito paradoxal: o humano reaparece apenas como recurso de exceção, não como fundamento do cuidado. A legislação aspira, em última instância, a reparar o dano que a própria tecnocracia produziu, um dano que não é apenas funcional, mas ontológico.
O human fallback, concebido como salvaguarda normativa, converte-se assim em lenitivo jurídico de uma ferida espiritual: tenta recompor juridicamente o vínculo ético rompido pela automatização. A tecnocracia, nesse sentido, repete em chave moderna o mesmo fechamento que Levinas descreve como economia do oikos, um estar-em-casa que se confunde com domínio e autopreservação. O sujeito técnico, seguro de sua própria racionalidade, encontra na IA o prolongamento lógico de seu narcisismo epistêmico: constrói sistemas que o protegem da imprevisibilidade do rosto.
Contudo, ao restaurar formalmente a presença do humano no circuito decisório, o human fallback não rompe esse círculo; apenas o reveste com verniz ético. É a resposta jurídica a uma ausência ontológica. Em termos levinasianos, trata-se de um substituto da hospitalidade, não da hospitalidade em si. A lei reconhece o estrangeiro, mas ainda não o recebe. Falta-lhe o tremor do rosto, o apelo silencioso que desinstala o eu de sua autossuficiência e o obriga a responder. Pois, como insiste Levinas, a ética não é derivada da norma: esta é a própria condição de possibilidade da lei.
Enquanto a regulação tenta reparar os efeitos da despersonalização tecnocrática na medicina, a verdadeira responsabilidade nasce antes da legislação, no instante em que o outro interrompe o gozo da minha economia e me acusa de tê-lo esquecido. Nesse ponto, o problema da IA em saúde deixa de ser técnico ou jurídico e se torna metafísico: não se trata de garantir a presença de um humano no sistema, mas de reconhecer que todo sistema é culpado enquanto o rosto não puder falar. A ética, nessa acepção levinasiana, não é um suplemento do direito, mas sua origem esquecida, o eco do estrangeiro batendo à porta da casa automatizada do mesmo.
O contraste entre Scherz (2022) e Williams (2023) evidencia o ponto axial deste debate: a distância entre regulação e presença. O direito pode conter abusos, mas não recria o gesto do encontro. Nenhum código substitui o olhar. A experiência do design em saúde, nesse quadro, ultrapassa a engenharia: torna-se hermenêutica. Cada fluxo de consentimento, cada painel preditivo, cada formulário digital traduz uma filosofia do humano, ou sua ausência.
O desafio não é decidir se a IA deve existir, mas como ela pode ver sem desfigurar. O designer, o médico e o programador partilham a mesma responsabilidade fenomenológica: interrogar o modo como seus instrumentos configuram o real. Williams (2023) observa que a carência de diversidade nos bancos de dados perpetua injustiças estruturais. Essa deficiência não é apenas técnica; é simbólica. A monotonia dos dados reflete a monotonia do olhar. Onde falta pluralidade de vozes, faltam mundos possíveis.
A ética da IA, portanto, não se reduz a regular o algoritmo, mas a reeducar o olhar que o alimenta. Scherz (2022) propõe o accompaniment, o cuidado como convivência; Williams (2023), a accountability. O que digo é:
A responsabilidade figura como obrigação pública. Ambas as categorias, se pensadas em comunhão, delineiam o horizonte de uma tecnologia humanizada: não a que substitui o médico, mas a que o restitui à sua vulnerabilidade.
A inteligência artificial talvez antecipe o diagnóstico, mas jamais compreenderá a dor. Entre o cálculo e o gesto, o design ético há de permanecer como morada do humano, resistência silenciosa contra a tentação liberticida de transformar o cuidado em planilha. Porque, quando o número pretende curar, o corpo se torna estatística e a compaixão, dado residual.
