arXiv • 2 Шілде 2020

Drug discovery with explainable artificial intelligence

Drug discovery-де мәселе тек дәл prediction емес. Medicinal chemist модельдің неге дәл осы molecule-ді promising не қауіпті деп санағанын түсінгісі келеді. Бұл review XAI-ды сол gap-ті жабатын көпқабатты құралдар жиыны ретінде жүйелейді.

НЕ ТУРАЛЫ?

Авторлар explainable AI-ды drug discovery pipeline-іне енгізудің негізгі тәсілдерін шолып шығады: feature attribution, instance-based explanations, graph-specific interpretation, self-explaining models, uncertainty estimation. Негізгі ой: chemistry-де «black box жақсы істейді» жеткіліксіз; модель hypothesis generation, safety, target rationale және experimental prioritization-ды қолдауы тиіс.

XAI reviewDrug discoveryQSAR + GNN + uncertaintyarXiv:2007.00523
Chemistry-де high accuracy alone жеткіліксіз.

Drug discovery expensive және sequential процесс: candidate synthesis, assay, safety, ADMET, mechanism hypotheses. Егер model тек score берсе, chemist оны decision tool емес, ranking gadget ретінде ғана көреді.

Сондықтан XAI мұнда «nice-to-have UI» емес. Ол model-дің қай structural motif-ке сүйенгенін, prediction-ке қаншалық сенімді екенін және қай molecule-ді next experiment-ке жіберу керегін түсіндіретін operational layer.

Негізгі инсайт
Ең пайдалы explainability түрі әрдайым «неге бұлай болды?» емес; кейде одан да маңыздысы “бұл болжамға сенуге бола ма?”.
Неге black box қауіпті?
Жоқ. Drug discovery-де false rationale өте қымбат: модель training bias-қа сүйеніп дұрыс нәтиже беріп тұруы мүмкін, бірақ жаңа chemistry space-ке шыққанда құлайды.
Кейде иә, бірақ paper дәл осы tension-ді маңызды деп көрсетеді: mechanistic interpretability мен raw predictive power арасындағы сызықты қайта ойлау керек.
Көбіне atom/substructure attribution, counterfactual edit, uncertainty flag және motif-level graph explanation секілді chemistry-ге жақын сигналдар.

Жаңалық

Бұл work бір model ұсынбайды; ол medicinal chemistry үшін XAI map сызады.

Paper-дің practical framing-і

XAI мұнда research novelty емес, decision support қабаты. Түсіндірме chemist intuition-мен сөйлей алса ғана model шынымен lab workflow-ке енеді.

Қысқа формула
Prediction quality + explanation quality + uncertainty quality = production-grade scientific model.

Архитектура

Бұл жерде “архитектура” нейрон желінің қабаттары емес, explanation strategy taxonomy.

XAI taxonomy for drug discovery

Бұл paper explainability-ді бір ғана tool емес, бірнеше сұраққа жауап беретін әдістер отбасылары ретінде көрсетеді: не маңызды, не өзгерсе нәтиже өзгереді, graph қай motif-ке қарады, модель өзіне қанша сенеді.

Interactive taxonomy
Core question

Модель нақты болжамды шығарғанда кірістің қай бөлігі ең көп үлес қосты?

Output

Атомдық importance map, heatmap, saliency score, pharmacophore-like highlight.

Drug examples
Ligand pharmacophore identification
Adverse effect structural alerts
Protein-ligand interaction profiling
Strengths
Жергілікті түсіндірме береді: нақты молекула үшін не маңызды екенін көрсетеді.
Ligand-тің қай субқұрылымы potency не toxicity-ге итермелегенін көруге ыңғайлы.
Көп neural architecture-ға post-hoc түрде жапсырыла алады.
Caveats
Әдемі heatmap әрдайым causal түсіндірме емес.
Representation өзгерсе, attribution те өзгеруі мүмкін.
Medicinal chemist үшін highlight жеткіліксіз; chemical rationale керек.

Қай жерде нақты пайдасы бар?

Review бірнеше concrete application аймағын бөліп көрсетеді.

Lead optimization
Attribution + counterfactual

Қай substructure potency-ді өсіріп, қайсысы toxicity-ді күшейтіп тұрғанын көру chemist-ке next edit таңдауын жылдамдатады.

Safety / ADMET
Graph + uncertainty

Structural alert, toxicophore және uncertainty сигналдары қауіпті candidate-терді ертерек тоқтатуға көмектеседі.

Experiment prioritization
Uncertainty estimation

Confidence-aware ranking active learning мен limited assay budget жағдайында ең пайдалы molecule-ді таңдауға көмектеседі.

Талдау

Explainability ғылымға пайдалы болуы үшін pretty heatmap-тен асып кетуі керек.

Before vs After: score-only QSAR vs explainable medicinal chemistry workflow

Бір potency classifier бар делік. Екі түрлі жұмыс тәсілі қандай нәтиже береді?

Workflow shift
Scenario
демо
Командада жаңа hit series бар. Model potency score береді, бірақ synthesize budget шектеулі және off-target risk маңызды.
БҰРЫН — score only
Opaque
1) Candidate-тер score бойынша ранжирленеді.
2) Chemist неге жоғарғы орын алғанын түсінбейді.
3) Selection bias пен out-of-domain risk жасырын қалады.
4) Failed assay-ден кейін ғана қате rationale білінеді.
КЕЙІН — explainable workflow
Decision support
1) Attribution қай motif potency-ге ықпал еткенін көрсетеді.
2) Counterfactual edit next substitution hypothesis береді.
3) Uncertainty estimation low-confidence candidate-терді белгілейді.
4) Chemist ranking-ті blind trust емес, rationale + confidence-пен қарайды.
Paper-дің түйіні: explainability prediction-ті scientific decision-ге айналдырады.

Авторлар

Авторлар
Барлық авторлар толық көрсетілген.
ETH Zurich · Department of Chemistry and Applied Biosciences
José Jiménez-Luna
ETH Zurich
Francesca Grisoni
ETH Zurich
Gisbert Schneider
ETH Zurich

Қатысты мақалалар

Осы explainer-ді кеңейтетін іргелес жұмыстар.

2020
RELATED
Drug discovery with explainable artificial intelligence
Jiménez-Luna, Grisoni, Schneider

Осы explainer-дің бастапқы review-і: drug discovery үшін explainability taxonomy, applications және challenges.

2017
RELATED
A Unified Approach to Interpreting Model Predictions
Lundberg, Lee

SHAP feature attribution бағытын жүйелеген классикалық жұмыс; molecular property model-дерге де кең қолданылатын түсіндіру тілі.

2019
RELATED
GNNExplainer: Generating Explanations for Graph Neural Networks
Ying et al.

Graph-based explanation әдістерінің canonical мысалы; molecular graph model интерпретациясына тікелей қатысты.

Түсіндірме сөздік

Негізгі терминдерді бір стильде жинақтау.

Құрылым-белсенділік байланысы
QSAR
Молекулалық құрылым мен биологиялық белсенділік арасындағы байланысты модельдейтін классикалық medicinal chemistry парадигмасы.
Белгі атрибуциясы
Feature attribution
Нақты prediction-ке кірістің қай бөлігі қаншалық әсер еткенін бағалайтын түсіндіру әдістері.
Қарсыфактілік мысал
Counterfactual explanation
Prediction-ді өзгерту үшін объектіде ең аз қандай өзгеріс қажет екенін көрсететін түсіндірме түрі.
Қолданылу аймағы
Applicability domain
Модель training distribution-ына қаншалық жақын не алыс жаңа үлгілерде жұмыс істеп тұрғанын сипаттайтын сенімділік ұғымы.
Уақытша сенімсіздік
Uncertainty estimation
Prediction қасына оның сенімділігі туралы қосымша сандық сигнал беру; active learning және prioritization үшін маңызды.