Como são descobertos os medicamentos?

Guilherme Duarte
3 min readJun 10, 2020

Enquanto no passado remédios eram descobertos de forma mais aleatória, hoje em dia o descobrimento de fármacos é algo mais ativo: identifica-se o potencial alvo farmacológico — uma enzima, uma proteína receptora, RNA, DNA etc — e estuda-se formas de ativar ou inativar esse alvo farmacológico com o uso de substâncias químicas, os potenciais medicamentos.

Para cada 10000–15000 compostos novos, somente 5 são considerados seguros para testes em voluntários humanos. Somente 1 normalmente é aprovado para comercialização.

Eu atualmente trabalho com desenvolvimento de software em ancoramento de ligante e proteína (protein-ligand docking),[1] na primeira fase do processo de descobrimento de fármacos, onde se estuda os aspectos mais fundamentais sobre a natureza do alvo e dos candidatos a medicamento.

Quando o alvo é identificado e sua estrutura é determinada, químicos e biólogos computacionais geram milhares de estruturas de candidatos — de novo design,[2] virtual screening [3] etc — que são filtradas de acordo com suas propriedades físico-químicas. Como mostra a figura acima, de milhares de compostos, somente um seleto grupo passa para testes pré-clínicos.

Hoje em dia, a identificação de alvos e o uso de ferramentas computacionais é essencial para trazer os medicamentos para o mercado mais rapidamente e diminuir os custos do processo.

Valores em Dólares ($) em cada etapa do desenvolvimento de fármacos (Fonte: Machine Learning applied to Drug Discovery)

Como está o campo hoje

O processo que descrevi acima, entretanto, não é recente. Estudos de virtual screening feitos em grandes bancos de dados de moléculas já são feitos desde a década de 1990. Os avanços nos dias de hoje ocorrem em duas frentes principais: no desenho de descritores utilizados na determinação da viabilidade de determinada molécula, e no aumento da capacidade de lidar com bancos de dados cada vez maiores.

Na primeira frente, a inteligência artificial tem caminhado a passos largos na construção de novos modelos quimiométricos. Tratarei disso em uma publicação à parte. No segundo caso, o esforço em engenharia de computadores é mais proeminente.

Sempre procuramos criar meios de lidar com bancos de dados grandes por meio da paralelização das simulações, isto é, empregar diferentes processadores de um computador para dividir o trabalho de fazer todas as simulações. Isso antigamente era feito em clusters HPC (high performance computation) feitos exclusivamente de CPUs, mas hoje o uso de GPUs tem se popularizado por questões de acessibilidade. O futuro, entretanto, está no uso de softwares em nuvem. Um projeto que participei em 2017–2018 envolveu o uso da plataforma AWS (Amazon Web Services) para o cálculo de diversas energias livres de solvatação: a empresa OpenEye Software, que desenvolve programas de química computacional, desenvolveu a plataforma ORION que permitiu que eu compilasse meus programas em pequenos pacotes discretos chamados cubes, os ordenasse em “floes” (flows) e fizesse meus cálculos em nuvem usando os recursos da AWS. Simulações que levariam 2 meses em um cluster convencional demoraram apenas uma noite para serem concluídas.

Leituras adicionais:

[1] Protein–ligand docking — Wikipedia

[2] Computer-based de novo design of drug-like molecules

[3] Virtual screening — Wikipedia

--

--

Guilherme Duarte

Ninguém particularmente interessante. Ciência, história, atualidades. Ph.D. Chemistry UC Irvine (2018)