Возможно, факты покажутся очевидными, но я сознательно проговариваю их отдельно, потому что в сети смешиваются разные классы моделей — уверена, что и вы постоянно сталкиваетесь с утверждением, мол, «ИИ не способен создать ничего нового, модели только перерабатывают существующие данные».
Это мнение особенно распространено в контексте больших языковых моделей (LLM), GPT-подобных систем.
Но.
Биоинженерия сейчас входит в топовые тренды 2024-2025 как часть технологического «суперцикла» ИИ.
И применять мнение, упомянутое выше, к области молекулярного дизайна, неверно. Картина полностью меняется.
Что если я вам покажу, что генеративные модели действительно создают новые молекулы и структуры, ранее не существовавшие?
Сначала кратенько и грубо, а ниже разверну:
Пайплайн «как это часто собирают на практике»:
Это типичный модульный пайплайн. Компоненты могут существовать отдельно, естественно.
Генератор кандидатов => (опционально) фильтры/скоринг предикторами => отбор => лабораторная/физическая проверка.
Интерес к этой теме возник в рамках моего проекта (я изучаю нейродегенеративные и генетические заболевания). Актуальные направления ИИ в сфере биоинженерии включают молекулярный дизайн, анализ белков, РНК и разработку терапевтических молекул для новых лекарств.*
И когда в дискуссиях звучит заезженный тезис о том, что ИИ — это всего лишь «поиск по данным» или инструмент без творческого потенциала, критически важно уточнить контекст.
Тема очень актуальна в 2025 году.
ИИ в молекулярном дизайне и «drug discovery» — чуть ли не самое быстрорастущее направление: после AlphaFold 3 (2024) и новых генеративных моделей типа Evo (2024–2025), RFdiffusion All-Atom, Chroma и тд.
Выходит куча публикаций в Nature, Science и Nature Medicine. Плюс фармкомпании активно внедряют это (Insilico Medicine, Exscientia, Generate:Biomedicines и тд.). Общественный интерес «может ли ИИ изобретать новое» в связи с этим тоже растёт, особенно на фоне споров про креативность LLM.
В этой статье я попробую пояснить, почему ИИ в биодизайне способен генерировать инновационные структуры, и проведу небольшое сравнение с известными текстовыми моделями.
Часто под «ИИ» подразумевают исключительно LLM, игнорируя другие классы моделей, решающие принципиально иные задачи.
Давайте рассмотрим два основных типа моделей в этой области: предсказательные и генеративные (а потом вернёмся к LLM).
В подмножество могут входить:
регрессоры (стабильность, аффинность);
классификаторы (токсично/нет);
дискриминативные модели в строгом смысле (которые учатся отличать одно от другого, например, больной белок от здорового; моделируют p(y|x))
Они ничего не создают —берут существующую молекулу и говорят нам, как она себя поведет:
Как свернётся белок по данной аминокислотной последовательности? (AlphaFold от Google DeepMind - ИИ для предсказания структур белков (protein folding) и шире — применение ИИ в биологии)
Будет ли это токсично?
Свяжется ли лекарство с целью (аффинность, имею ввиду)?
То есть объект уже существует (хотя бы как последовательность), и мы про него узнаем что-то новое. Потому что релевантных взаимосвязей — космическое количество, человек просто не в состоянии все их увидеть и обработать вручную.
Вот они-то как раз работают в режиме De Novo Design — создают совершенно новые последовательности, которых раньше не существовало: генерация аминокислотных цепей, молекул, структур (соединений).
Тут я упомяну RFdiffusion (RoseTTAFold Diffusion) и его варианты, обязательно ProGen, Chroma и другие диффузионные модели (существует уже много подобных лабораторий).
Сгенерированные структуры проверяются экспериментально в лабораториях с участием людей, конечно же. Многие недавние публикации в Nature и Science основаны на таких подходах. Это активное направление исследований.
И здесь я выведу ключевой аспект различия!
Это отличает процесс от чисто статистической генерации обычных NLP: если LLM галлюцинирует, то мы получаем бредовый текст, но если био-модель «галлюцинирует» (нарушает законы физики), то белок просто не свернется или распадется.
В биоинженерии есть «Hard Reality Check», которого нет у копирайтинга (успех De Novo дизайна экспериментально подтверждается рентгеноструктурным анализом или крио-ЭМ, например).
Вернемся к нашим ̶б̶а̶р̶а̶н̶а̶м̶ LLM по типу GPT-подобных моделей. В них деление на предсказательные и генеративные менее выражено.
Это всегда генеративная авторегрессивная модель, но генеративность достигается через предсказание токена.
Модели опираются на статистические закономерности в данных обучения/весах. Они комбинируют элементы неожиданным образом, но не выходят за пределы своего многообразия и не открывают новые фундаментальные законы (пока), и если говорить не упрощая, то не имеют встроенного механизма проверки гипотез реальностью и без внешних инструментов/экспериментов обычно воспроизводят/перекомбинируют статистические закономерности текста.
Да, у современных LLM внушительные надстройки над трансформером: RAG, дополнительное внимание, расширенное контекстное окно, динамика в контексте, RLHF, цепочки рассуждений. Плюс эмбеддинговое пространство постоянно растёт. Модель может комбинировать известные ей вещи в непредвиденных сочетаниях (какая-то эмерджентность минимальная), подхватывая и развивая идеи пользователей, но при всём этом она не может синтезировать то, чего в её пространстве принципиально не было; она генерирует внутри распределения, заданного обучением и контекстом, и «новизна» там - комбинаторная, не физически-экспериментальная, как у генеративок в биодизайне.
Пример — Evo (и Evo 2, 2024–2025 годов), геномная языковая модель (GLM), обученная на длинных последовательностях ДНК, РНК и белков в гигантских масштабах. Она предсказывает мутации и генерирует новые геномные последовательности, способна проектировать новые биологические системы, включая лабораторную проверку синтетических систем CRISPR (вероятно, вы слышали о «биологических» ножницах для ДНК). Для Evo «языком» служат как раз последовательности ДНК/РНК/белков в противовес обычным NLP, где фигурирует «человеческий» текст.
В Evo, по сути, тоже вкладывают биологические промпты (если позволите такой термин) — условия/ограничения и представление объекта (последовательность, мотивы, скелет, контактные карты…), которыми задаём пространство поиска.
Evo моделирует биологические ограничения (физика, химия, эволюция), чтобы вывод был правдоподобным.
Разница с моделями NLP в нескольких аспектах: домене данных (текст vs биологические последовательности/структуры), целевой функции/валидации (человеческая правдоподобность vs физико-химическая/экспериментальная проверка), типе ограничений и тестов.
Те, кто говорит, что «ИИ ничего нового не создаёт» скорее всего смешивает класс моделей. В обработке текста генерация ограничена статистикой данных (веса, вероятности), в молекулярном дизайне — создаёт новые структуры, подчинённые законам природы.
Разделение этих подходов позволяет точнее оценивать возможности ИИ. В биоинженерии уже есть практические результаты: новые кандидаты в лекарства и синтетические белки.
Направление, считаю, перспективное. Оно продолжает развиваться.
Ещё мне бы хотелось вам показать статьи, заслуживающие внимания, чтобы не быть голословной. И несколько картинок.
Для RFdiffusion (самый яркий пример De Novo с кучей публикаций в Nature): De Novo design of protein structure and function with RFdiffusion (Nature, 2023) — тут генерация новых белков с нуля, включая функциональные (биндеры, энзимы и т.д.), с лабораторной валидацией.
Atomically accurate de novo design of antibodies with RFdiffusion (Nature, 2025) — эта свежая, от пятого ноября: De Novo дизайн антител на атомном уровне.
Ещё продемонстрирую в качестве иллюстрации одной из работ вот такую последовательность
ProGen (показывают генерацию функциональных белков De Novo): Large language models generate functional protein sequences across diverse families (Nature Biotechnology, 2023). Здесь напрямую демонстрируют, что ProGen создаёт искусственные белки с предсказуемой функцией, и проверяют их экспериментально.
И ещё ProGen2: Exploring the boundaries of protein language models (Cell Systems, 2023) — (это, конечно, не Nature/Science, но тоже солидный журнал)
Про упомянутую мной выше Evo (который геномный De Novo)
Sequence modeling and design from molecular to genome scale with Evo (Science, 2024) — генерация и дизайн на уровне геномов.
И Semantic design of functional De Novo genes from a genomic foundation model (Nature, 2025) — Прямо про function-guided De Novo дизайн генов с Evo.
Illuminating protein space with a programmable generative model (Nature, 2023) — вот тут про Chroma, ещё одну генеративную модель для De Novo белков и комплексов.
Не менее интересная модель, кстати.
И прикреплю ещё обзор LLM в биологии и химии
Благодарю за прочтение!
Источник


![[Перевод] Как «приватные» VPN-расширения слили переписки 8 миллионов пользователей с ChatGPT и Claude](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250611171322266npMCv2GXbcEBQv.png)