Descoberta
histórica
É detectada a primeira bactéria causadora de uma doença
Até o fim do século 19, só a morte permitia aos médicos verem o corpo humano por dentro. Nas escolas de medicina, a dissecação de cadáveres se apresentava como único meio de os estudantes conhecerem os principais órgãos e descobrirem como se interligavam. O corpo era então escuro e silencioso. Ver o coração pulsando, o cérebro realizando sinapses e o sangue percorrendo a intrincada rede vascularnão passava de ficção. Tudo mudou em 1895, quando o alemão Wilhelm Conrad Röntgen descobriu acidentalmente o raio x – desde então, o homem ficou literalmente transparente.
A notícia da primeira radiografia, que foi dos ossos da mão da mulher do cientista, ganhou o mundo. Em 1897, o Estado publicava constantemente anúncios de consultórios que faziam exame com a “Luz de Röntgen”. Em julho daquele ano, trouxe uma reportagem sobre as novas aplicações do artefato. “Com este aparelho tem-se conseguido observar o coração, o fígado, o baço, fraturas insignificantes e corpos extranhos (sic) de pequeníssimas dimensões.” Três anos depois, em um artigo sobre os avanços da medicina no século 19, o jornal chamava atenção para os novos recursos da ciência, tratados como “engenhosos instrumentos da diagnose”. “Inventava-se o spectroscopo (espectroscópio), o hemoglobinômetro, o hematímetro...; e como se não bastasse, aproveitando-se a clínica da descoberta de Röntgen, a nossa vista enxerga como pela transparência de um vidro o mais denso, o mais íntimo, o mais recôndito do organismo humano.”
Foi o surgimento da informática, na década de 1950, que potencializou o experimento de Röntgen: a radiografia passou a captar imagens transversais, em fatias, de estruturas do corpo, como os ossos. Aqui se fala da tomografia, exame essencial na vida de atletas, por exemplo. Sem essa tecnologia, quando Anderson Silva, campeão de UFC, fraturou a perna em 2013, os médicos não teriam condição de avaliar o tamanho da lesão nem o tratamento mais adequado em tão pouco tempo.
Avanços eletrônicos, de computação e resolução tornaram os exames de imagem mais rápidos, precisos e menos invasivos. Se antes o diagnóstico do coração estava limitado ao uso de um estetoscópio e, mais tarde, do eletrocardiograma, hoje médicos podem usar procedimentos como angiografias, tomografias e ultrassons. “Até o século 19, só era possível avaliar as lesões internas após a morte, nas autópsias ou durante os procedimentos cirúrgicos, que raramente eram realizados, devido à intensa mortalidade”, afirma Clarissa Nogueira, professora da Faculdade de Medicina da Unicamp.
Os diagnósticos antecipados levam a tratamentos melhores e a taxas de sobrevivência mais altas. Por décadas, os oncologistas, por exemplo, eram obrigados a apenas especular sobre o efeito de remédios em um tumor. Hoje, com a tecnologia PET scan, é possível visualizar exatamente como um determinado tumor está reagindo ao tratamento. E tomar decisões com base em imagens precisas.
Uma imagem pode significar a diferença entre vida e morte. Antes do desenvolvimento do ultrassom, os aneurismas da aorta abdominal, por exemplo, raramente eram identificados antes que se rompessem.
Hoje é possível localizá-los, reduzindo o risco de morte em mais de 40%. “Mas também há prejuízos por excessos e perigos dos exames. Muitos ovários sadios foram perdidos com a visualização de cistos ovarianos após a introdução da ultrassonofraia”, afirma Clarissa.
Espiar dentro do corpo humano chegou ao extremo de o ultrassom 3-D permitir que a mãe veja o rosto e o corpo do filho antes de ele nascer. As imagens captadas pelo aparelho dão detalhes até das feições do feto – como se fossem um retrato. A versão 4-D do exame vai além: mostra os movimentos do bebê. Certamente, Röntgen não imaginava, em 1895, que o homem seria assim tão transparente.
Em 1990, quando o Congresso americano deu sinal verde para o Projeto Genoma Humano, liberando US$ 4 bilhões para o Instituto Nacional de Saúde e para o Departamento de Energia, a ciência entrou em outro patamar. A partir daquele momento, o homem começava a ser traduzido em suas estruturas mais básicas. Abria-se uma imensa gama de possibilidades, de onde se esperavam explicações para doenças até então incuráveis, diagnósticos antecipados que permitissem terapias profiláticas e produção de tecidos para substituir partes do corpo doentes (as chamadas terapias com células-tronco).
O que até então era considerado ficção hoje foi incorporado à medicina de ponta. Em 2012, o ator Reynaldo Gianecchini, diagnosticado com câncer linfático, foi submetido a um autotransplante de células-tronco. Nesse procedimento, o paciente é o próprio doador. As células mãe são retiradas da medula óssea, armazenadas e tratadas com várias doses de quimioterapia. Depois, são devolvidas saudáveis ao corpo do paciente, por meio de um cateter, como se fosse uma simples transfusão de sangue.
Em 2013, uma das mais belas atrizes do cinema, Angelina Jolie, retirou os seios como medida profilática contra o câncer de mama – mais tarde ela retiraria também os ovários. Jovem e saudável, ela se submeteu às cirurgias depois de tomar conhecimento de uma pesquisa genética pela qual tinha 87% de chances de desenvolver câncer de mama, a doença que vitimou sua mãe. O Estado publicou em primeira página a manchete: “Angelina Jolie retira seios e provoca debate”. E alertava os leitores: “Especialistas recomendam ponderação na hora de decidir pelo procedimento”.
Conhecer o histórico genético ficou até simples. A televisão popularizou o “teste de DNA”, para saber a paternidade de crianças. Mas agora é possível fazer um exame de sangue e, em uma ou duas semanas, ter a análise completa das processo ajuda na identificação de câncer e de possíveis problemas neonatais, além de poder determinar a resistência e a alergia a determinados tipos de remédio. “É um dado muito importante porque o brasileiro tem uma cultura de recomendar remédio, mas a resposta às drogas não é a mesma”, afirma Mayana Zatz, coordenadora do Centro de Estudos do Genoma Humano da Universidade de São Paulo. Em 2014, mais de 20 mil pessoas sofreram reações adversas a medicamentos só no estado de São Paulo.
Quando o mapa físico do genoma humano ficou pronto em 2005, 10% dos genes estavam identificados. Desde então, a decodificação genética ganhou velocidade. “Até pouco tempo, se havia uma suspeita de doença, era necessário olhar gene por gene. O homem tem 20 mil genes diferentes – não dava para chegar a um diagnóstico”, diz Mayana. “Com as novas técnicas de sequenciamento é possível fazer uma radiografia completa do caso.”
Frederick Sanger desenvolveu os primeiros métodos de decodificação do DNA na década de 1970. Dez anos depois, o primeiro instrumento automático apareceu no mercado com capacidade de decifrar de 700 a 1.000 fragmentos de DNA por vez. Com 3 bilhões de blocos de DNA compondo cada genoma humano, o projeto requeria milhares de cientistas e cada sequenciador custava em torno de US$ 1 milhão. Entre 2001 e 2014, os novos instrumentos baixaram o custo do processo para R$ 5 mil.
Hoje há softwares específicos, como o YouScript, que ajudam a prever a dosagem ideal e o efeito cumulativo de um determinado medicamento com base na genética. Identifica quando fatores genéticos afetarão a metabolização do medicamento, se o paciente está em risco de uma interação adversa e qual dosagem ou droga alternativa pode ser prescrita.
Há outras ferramentas disponíveis. A Knome oferece um sistema de “plug and play” que combina hardware e software de interpretação genômica. O Illumina permite ao cliente inserir sua sequência de DNA em um sistema de análise. Já o 23andMe precisa de uma simples amostra de saliva para descobrir a propensão a doenças e detalhes de seus ancestrais. Custa US$ 99. O processo é tão popular que pode ser encomendado pela internet: o kit do teste e o resultado chegam à casa do interessado pelo correio.
Houve o tempo em que médicos saíam do necrotério para a maternidade, onde pulavam de paciente em paciente sem lavar as mãos ou os instrumentos. A sugestão de que esses cavalheiros deviam se limpar era encarada como um ultraje, um literal “vá tomar banho”. Não foi há tanto tempo assim. Em 12 de outubro de 1878, A Província de S. Paulo, o primeiro nome de O Estado de S. Paulo, trazia o artigo “Os habitantes invisiveis da atmosphera”, anunciando a ideia de que as bactérias estão em todos os lugares e podem causar doenças. O texto, do jornalista científico francês Henri de Parville, lembrava que a maioria dos micro-organismos é inofensiva, mas terminava com “é bom desconfiar dos infinitamente pequenos [micro-organismos] e aprendermos a conhecer o mundo invisível, que nos rodeia e nos cerca tão estreitamente para viver à nossa custa, e que termina por nos matar”.
Estava a caminho a revolução da micropatologia, a fundação da medicina e as noções de higiene modernas. Uma revolução que enfrentou inúmeras resistências. Ainda em 1887, uma notícia de A Província de S. Paulo, sobre o serviço municipal de remoção de cadáveres, afirmava que os corpos deixavam escapar “muito miasma”. Miasma era a teoria tradicional para a causa das doenças, então ainda aceita por muitos médicos.
A fundação da micropatologia, na segunda metade do século 19, foi uma batalha árdua contra noções estabelecidas por milênios. “Grandes epidemias sempre foram consideradas uma forma de julgamento divino”, afirma o cientista e médico americano Socrates Litsios, autor de diversos livros sobre a história da medicina. “Isso provia as autoridades religiosas e médicas com meios convenientes de identificar seus inimigos. A peste de Londres, em 1665, foi atribuída à volta do ateu Thomas Hobbes do exílio na França.”
Mesmo após o Iluminismo, a ciência médica ainda rastejava, acorrentada por tradições seculares. Isso é ilustrado pela trágica história do doutor Ignaz Semmelweiz, um dos grandes pioneiros da higiene. Em 1846, ele assumiu a direção da Primeira Clínica Obstétrica do Hospital Geral de Viena, na Áustria, que funcionava como escola médica e oferecia partos gratuitos a mulheres pobres. Na época, 10% das que entravam não saíam mais, chegando a mais de 30% em meses particularmente ruins. Era a febre puerperal, uma infecção letal do útero, então considerada só outro fato desagradável da vida.
Semmelweiz fez uma descoberta constrangedora. A Segunda Clínica do hospital tinha menos de metade das mortes. Lá o trabalho era feito por parteiras, não por orgulhosos professores doutores e seus alunos. Sua conclusão foi que a infecção era causada pelos médicos, que faziam autópsias e iam direto para a clínica obstétrica, sem lavar as mãos apropriadamente nem trocar de roupa. Mandou então todo mundo se limpar com hipoclorito de cálcio, um alvejante. Com isso, diminuiu as mortes em 90%.
Mesmo com esses dados, a notícia foi recebida com escárnio. Os médicos não aceitavam que a causa de uma doença podia estar nas mãos treinadas de cavalheiros estudados. A descoberta foi considerada anticientífica e a cadeira de Semmelweiz não foi renovada. Voltando para sua Hungria natal, passou o resto de sua vida em conflito com o establishment médico, chamando os outros obstetras de assassinos. Em 1865, acabou internado num manicômio, onde morreu, numa ironia amarga, de infecção generalizada.
Semmelweiz não foi o único mártir da causa. Nos Estados Unidos, pouco antes dele, Oliver Wendell Holmes havia dito exatamente a mesma coisa, e teve de ouvir o mesmo tipo de comentário. Em 1854, em Londres, John Snow estudou em mapas a localização das vítimas de um surto de cólera, provando que a causa era a água contaminada de uma bomba. A alavanca foi removida e salvou centenas de vidas, apenas para Snow ver sua teoria ser refutada logo depois. Os vitorianos achavam intolerável a ideia de que algo saído das fezes pudesse contaminar alguém pela boca.
A rejeição não era totalmente injusta. Semmelweiz, Holmes e Snow entenderam o básico da higiene, mas não tinham a menor ideia do que realmente causava as doenças. Ainda estava em vigor a teoria do miasma, pela qual maus ares eram a causa maior das doenças. “Hipócrates usou a palavra miasma para expressar a ideia de uma atmosfera contaminada que podia dar origem a epidemias”, afirma Socrates Litsios. “Na época, os miasmas se juntava a demônios causadores de doenças e matéria mórbida trazida pelos ventos.”
A chave para o mistério só passou a ser vislumbrada alguns anos depois, com o trabalho de Louis Pasteur. Primeiro, o pai da medicina moderna teve de provar que os micro-organismos não surgiam do nada. Era a teoria da geração espontânea, que dizia que formas de vida simples podiam ser geradas pela própria matéria em decomposição. Em 1864, ele demonstrou que os micróbios são como qualquer forma de vida – só surgem nascidos de outros micróbios.
“Que o ‘infinitamente pequeno’ fosse a causa, e não a consequência, da fermentação e putrefação forçou uma reformulação radical da origem das doenças”, afirma Litsios. Se bactérias têm de vir de algum lugar, isso quer dizer que, quando encontradas em tecidos doentes, não se trata de consequência da doença, mas de sua causa. Seguindo os passos de Pasteur, na década de 1870, o alemão Robert Koch faria as primeiras identificações objetivas de micro-organismos patológicos, e publicaria depois seu método, permitindo a outros pesquisadores levarem adiante a nascente ciência da micropatologia.
Rapidamente, a higiene deixou de ser apenas um luxo ou uma noção superficial de limpeza, restrita ao que é visível. Hospitais e sistemas de abastecimento de água se tornaram bem mais estritos. A revolução se traduziu na quase duplicação da expectativa de vida. No Reino Unido, saltou de 40 anos em 1880 para 64 em 1920 e 81 hoje em dia. No Brasil, ainda era de 46 anos na década de 1940 – quando o País convivia com outras mazelas, como miséria, analfabetismo e subnutrição. Hoje chega a civilizados quase 75.
A partir de Pasteur e Koch, higiene tornou-se a palavra do dia. O termo “hygiene”, mencionado 291 vezes em A Província de S. Paulo na década de 1870, passa a 1.378 ocorrências na seguinte, e a 1.811 na posterior. Em 1884, surgiu a Inspetoria Pública de Higiene em São Paulo. Higienópolis, um empreendimento imobiliário da década de 1890, ganhou esse nome para propagar que era uma das regiões mais “salubres” de São Paulo. Durante essa década, entraram em evidência os grandes epidemiologistas brasileiros: Emílio Ribas, Carlos Chagas, Adolfo Lutz, Oswaldo Cruz e Vital Brasil, que combateram com sucesso epidemias de febre amarela, peste e varíola.
Em 2007, os 11.300 assinantes do British Medical Journal, uma das mais respeitadaspublicações de medicina científica, elegeram a revolução sanitária como a mais impactante mudança desde 1840 – superando os antibióticos, a anestesia e a genética. Em toda a história da humanidade, nada salvou mais vidas que o proverbial ato de lavar as mãos.
O futuro chegou e se parece mais com Admirável Mundo Novo do que com 1984. No livro de Aldous Huxley, todo mundo, sem exceção, tomava o soma, a droga que resolvia todos as dúvidas, preocupações e problemas da condição humana. São inegáveis os avanços de qualidade de vida conseguidos pela medicação moderna. Problemas que por séculos foram considerados fatalidades hoje encontram soluções pela química. O Viagra e outras drogas para disfunção erétil causaram uma pequena revolução sexual na terceira idade. O câncer, o velho terror, não é mais uma sentença de morte – a quimioterapia é cada dia mais eficiente e menos agressiva. Uma análise publicada no Reino Unido pelo McMillan Cancer Support revelou que a expectativa de vida para pacientes com câncer de mama duplicou desde os anos 1970, e cresceu sete vezes para vítimas de câncer retal.
E, talvez a mudança com maior impacto cultural, a melancolia, condição primeiro romantizada, depois rebatizada como depressão, hoje pode ser deletada por uma receita. É um novo tempo, com novos problemas. “O Prozac ajudou a lançar uma era da droga blockbuster – um produto que gera mais de US$ 1 bilhão em vendas anuais”, diz Jeffrey Avorn, professor de medicina da Universidade de Harvard, em artigo no New York Times.
A indústria farmacêutica vem de uma tradição começada nos boticários medievais. Como a própria medicina, tudo funcionava numa base tradicional. “Por centenas de anos, a prática médica era dominada pelos ensinamentos ancestrais de Galeno”, diz Avorn. “Não se esperava de um aprendiz que entendesse dados de experimentos, mas que memorizasse conceitos e receitas em relações arcanas de humores, regurgitando ideias erradas que passavam de médico a aprendiz por gerações.”
Tudo começou a mudar no século 19, com a criação de cursos superiores de farmácia. A aspirina, criada pela Bayer em 1897, foi o primeiro grande sucesso comercial de uma droga sintética. Experimentos do tipo duplo-cego, envolvendo placebos, uma marca central da indústria farmacêutica moderna, começaram em 1907. Porém, no mesmo lugar onde era possível se comprar remédios baseados em ciência, também eram vendidos óleo de cobra e medicamentos que prometiam milagres sem revelar suas fórmulas.
Não foi só a ciência que levou à farmácia moderna. “Nossa abordagem para remédios com receita é produto de duas correntes históricas que se uniram apenas recentemente”, diz Avorn. “A primeira foi a evolução política, que deu aos governos autoridade para decidir que produtos poderiam ser vendidos como remédios. A segunda foi a evolução científica que deu aos dados experimentais prioridade sobre a sabedoria recebida.”
Para conter a anarquia, foram criadas entidades governamentais. A primeira foi a Food and Drug Administration, dos Estados Unidos. Por décadas, porém, ela estava mais preocupada com honestidade comercial do que com segurança.
Por exemplo, se você comprasse um elixir radioativo, a FDA só queria saber se existia realmente radiação nele, não os efeitos que causaria no organismo. Não é piada. Na década de 1920, foi vendido nos Estados Unidos o Radithor, com o elemento químico rádio – o mesmo que mataria a franco-polonesa ser “a cura para os mortos vivos”. Um dos seus clientes foi o socialite Eben Byers, que afirmava ter tomado 1.400 garrafinhas. Ele desenvolveu cânceres, abscesso cerebral e dano nos ossos, que destruiu sua mandíbula. Como descreveu o Wall Street Journal: “A água de radiação funcionou bem até que sua mandíbula caiu”.
Escândalos como esse levaram a leis mais rigorosas. Em 1938, o poder da FDA foi ampliado para um escopo mais moderno, exigindo testes antes de os remédios chegarem ao mercado. Na maior parte dos outros países, esse tipo de regra começaria a ser usado após a Segunda Guerra. No Brasil, o Ministério da Saúde surgiu em 1953, mas só ganhou o poder de controlar medicamentos em 1967. Isso não significa que esta seja uma era sem problemas. Em 2004, um estudo revelou que o anti-inflamatório Vioxx podia causar derrames e ataques cardíacos, fazendo com que fosse tirado das prateleiras após cinco anos e 80 milhões de pacientes tratados. No mesmo ano, foram publicadas as primeiras estatísticas relacionando o uso de antidepressivos ao aumento do risco de suicídio.
Ainda que o planeta não esteja mais na era do óleo de cobra, a reputação de agências reguladoras e sua relação com a indústria farmacêutica estão cada dia mais em cheque. “Até recentemente, preocupações com a influência das farmacêuticas nas decisões da FDA, ou com o papel da indústria em criar políticas de benefícios, eram tidas como papo de esquerdistas lunáticos”, diz Avorn. “O constante aumento da preocupação pública com a incompetência governamental em detectar e corrigir riscos das drogas, alinhadas com as crises fiscai causadas pelos gastos incontroláveis com medicamentos, públicos e privados, irão levar à reforma.”
Os dentistas foram responsáveis por avanços inestimáveis na ciência da saúde. A invenção da anestesia, o aperfeiçoamento da radiografia e tratamentos estéticos são alguns exemplos. Mas nem por isso os pacientes sorriem de gratidão quando pensam nos tratamentos odontológicos.
O medo do dentista é tão comum que possui até nome – odontofobia. Isso porque, por muitos séculos, a prática foi brutal. Tiradentes, o herói nacional, não recebeu a alcunha à toa. O apelido foi ganho depois de muitas extrações – feitas à força, com o auxílio de uma alavanca de metal. Os pacientes mais afortunados recebiam uma boa paulada na cabeça para desmaiar antes do procedimento.
A primeira escova de dentes apareceu há cerca de 5 mil anos. Os dentistas surgiram ainda no Antigo Egito. O profeta Maomé recomendava a escovação com pequenos galhos de uma planta com poderes antissépticos. Na Idade Média, a tarefa ficou a cargo dos cirurgiões-barbeiros. Eles não só extraíam dentes, como tiravam pedras da bexiga, abriam abscessos, vendiam tônicos e vitaminas e faziam sangrias. As técnicas eram rudimentares e não havia muita higiene – a esterilização consistia em passar os equipamentos sobre uma chama ou lavá-los com álcool. Os médicos e cirurgiões evitavam as tarefas, alegando riscos de hemorragia e infecções.
Os banguelas proliferaram até meados do século 18, quando apareceram os implantes. Feitos com dentes removidos de cadáveres – ou, para os mais ricos, de “voluntários” –, os implantes eram afixados com arame. Deixavam o sorriso bonito, mas podiam levar a outros problemas, como a transmissão de doenças.
O hábito de ter dentes arrancados em praça pública começou a mudar em 1728, depois que o francês Pierre Fauchard publicou um livro que descrevia novas técnicas e aparelhos, com destaque para a dentadura. Os cuidados com os dentes dos brasileiros também eram bastante precários. Não havia tratamento de canal e as obturações eram de chumbo, sobre as cáries e gengivas machucadas.
No Brasil, a partir de 1782, uma lei passou a obrigar os barbeiros a tirar uma licença especial conferida pelo “cirurgião-mor” para extrair dentes. Nas páginas de A Província de S. Paulo era possível ver diversos anúncios de serviços dentários. Em 28 setembro de 1875, um dentista da família imperial, em visita a São Paulo, anunciava os serviços e “assegurava seus clientes, quanto a efficacia (sic) de suas operações”. Outro, de 13 de outubro, garantia dentaduras perfeitas.
Em 1844, surgiu um avanço significativo: o uso do óxido nitroso, o “gás hilariante”, para anestesia. Logo, ele foi substituído pelo éter e, depois, pela novocaína. Em 14 de dezembro de 1909, o Estado publicou nota em que anunciava a novidade. “Os scientistas (sic) mostram-se surpreendidos com os excellentes (sic) resultados que tem obtido com o emprego do novo anestésico novocaína”.
Embora o termo “dentista” tenha surgido no País em 1800, foi em só em 1884, que foram inauguradas as primeiras faculdades de Odontologia no Rio de Janeiro e na Bahia. Desde então, a profissão se modernizou cada vez mais. Os exames ficaram mais seguros - e menos doloridos. A obturação substituiu a extração completa e as dentaduras foram praticamente aposentadas. A ortodontia, um ramo da dentística, se tornou uma ferramenta indispensável para a manutenção da beleza facial.
Em 1937, o Estado publicou um pioneiro anúncio de pasta de dentes clareadora. Os cremes dentais popularizaram o tratamento, como atesta um artigo da editoria de Economia de janeiro de 2005. “O clareamento de dentes costumava ser um processo caro que só era disponível num consultório de dentista”. Além do branqueamento, os implantes ficaram mais discretos e dentes desalinhados são corrigidos com pequenos aparelhos. Ir ao dentista passou de pesadelo a sonho. E o uso de flúor na água tratada, por exemplo, tornou-se medida comum de saúde pública – a profilaxia chega pela torneira.
Imagine descobrir, na mesa de operação, que o médico prestes a realizar sua cirurgia tem pouca familiaridade com o bisturi. Até a criação do hospital-escola – instituição que permite aos estudantes de medicina praticar as técnicas aprendidas na faculdade em um ambiente real, porém controlado –, esse cenário não era tão absurdo.
Tudo mudou em 19 de abril de 1944. Enquanto o País celebrava o aniversário do então presidente Getúlio Vargas, o Estado anunciava, entre as comemorações, a inauguração do primeiro hospital-escola da América Latina, construído atrás da Faculdade de Medicina e Cirurgia de São Paulo, no bairro de Cerqueira César.
Com 11 andares e feito de concreto armado, o “magestoso (sic) edifício” seguia a mais moderna arquitetura da época, “uma obra de proporções desconhecidas na América do Sul”. A inauguração representava a consolidação de um antigo sonho do médico Arnaldo Augusto Vieira de Carvalho, primeiro diretor da Faculdade de Medicina, que protagonizou o aperfeiçoamento do ensino médico paulista. Ele pregava a necessidade de o aprendizado científico ser sempre acompanhado da prática experimental.
Para isso, deveria existir um aparato físico com laboratórios de pesquisa e o hospital-escola, além de profissionais bem-formados e alunos preparados para atender as exigências curriculares. A inauguração do HC era prenúncio de um futuro em que o progresso científico e a educação avançariam a passos largos.
O jornal apostava que se tratava de um embrião. “Ao lado desse estabelecimento erguer-se-ão outros, destinados a formar um verdadeiro centro da ciência médica em São Paulo.” Hoje, considerado o primeiro e maior hospital-escola da América Latina, o HC é uma referência mundial em pesquisa e procedimentos avançados.
A construção do hospital resolvia o problema educacional e, de quebra, social. Já se registrava o crescimento da população da cidade. Isso, somado à incidência cada vez maior de casos complexos, exigia que São Paulo tivesse um pronto-socorro capacitado. “Ele veio a ser criado como contrapartida à construção da faculdade, nos moldes do sistema americano de ensino em que os alunos deveriam ter tempo integral num hospital de treinamento. É o que se entendia ser o melhor”, afirma José Otávio Costa Auler Junior, diretor da Faculdade de Medicina da Universidade de São Paulo – a antiga Faculdade de Medicina e Cirurgia de São Paulo –, também conhecida como a “Casa de Arnaldo”.
Quando a faculdade começou, em 1912, a sede funcionava no Largo São Francisco, no centro de São Paulo, em um prédio de instalações e aparelhagem precárias, com deficiência de corpo docente e despreparo dos alunos ingressantes. Até o HC abrir as portas, os alunos praticavam na Santa Casa de Misericórdia, único pronto-socorro disponível, que também sofria com a falta de infraestrutura. Os 480 leitos eram insuficientes para a quantidade de enfermos e moribundos que buscavam atendimento.
O quadro começou a mudar em 1918, quando Vieira de Carvalho enviou uma carta à Fundação Rockefeller pedindo financiamento para melhorias. Dessa proposta surgiu o plano do hospital-escola, com auxílio do governo federal. O projeto seria concretizado 26 anos depois, no governo de Adhemar de Barros. Médico formado pela Faculdade de Medicina do Rio, como Vieira de Carvalho, ele deu prioridade à construção do hospital.
Passados oito anos da inauguração do HC, o Estado fez uma reportagem avaliando positivamente o hospital-escola. “De início, muitos não perceberam o grande alcance deste aspecto peculiar do noss PS. Mas os excelentes resultados desta feliz experiência de cerca de 8 anos permitiram verificar na prática as enormes vantagens de estar um serviço desta natureza intimamente ligado à universidade.”
O entusiasmo seria repetido em 28 de maio de 1968, quando a equipe de Euryclides Zerbini inseriu o Hospital das Clínicas na história da medicina mundial. Cinco meses após o pioneiro procedimento do gênero, realizado na África do Sul, o cirurgião fez o primeiro transplante de coração da América Latina. No ano seguinte, o Estado exibiria a manchete “50º transplante já traz tranquilidade”, comemorando também o avanço na cirurgia de rins.
Ao longo do tempo, foram surgindo institutos de especialidades dentro do HC. O primeiro foi o Instituto do Coração, anunciado em 1974 com projeto inovador. Em vez de ser encaminhado diretamente ao médico, o paciente teria de passar por triagem e exames de rotina, para só então ser mais bem direcionado. Atualmente, com quase 23 mil funcionários, o HC tem o dobro do número de leitos, 2.200, atende mais de 50 mil pessoas por dia e recebe, todos os anos, em média 180 alunos e 1.600 mil residentes de todas as especialidades.
“Acredito que hoje seja um patrimônio do povo paulista”, diz Auler Junior.