Подписаться на новости
  • Сенатор
  • ООО "Ай Вао"
  • medtech
  • ММИФ-2018
  • Vitacoin

ИИ для медиков

Медицинские применения искусственного интеллекта

Иллюстрации см. в видеозаписи лекции в оригинале статьи.

Что мы понимаем под искусственным интеллектом? Что общего у аксонов гигантского кальмара и AlphaZero? Как Watson борется с раком и за что его критикуют? Об этом рассказывает Сергей Марков, специалист в области машинного обучения и основатель портала XX2 век. Из лекции вы узнаете, как искусственный интеллект изменяет медицину уже сегодня, чего удалось достичь за последние десять лет, а какие задачи ещё только предстоит решить.

Сергей Марков. Вначале, прежде чем рассказывать о медицинских применениях искусственного интеллекта, ну, и в принципе о применениях технологий искусственного интеллекта и машинного обучения, я хочу потратить несколько минут на то, чтобы определить всё-таки, что такое искусственный интеллект, потому что проблемы с этим определением заключаются в том, что изначально, возникнув среди вычислительной математики, оно достаточно быстро попало в поп-культуру и, соответственно, уже претерпело там такие трансформации, что сейчас, конечно, если вы остановите на улице человека и спросите, что такое искусственный интеллект, то наверняка услышите от него очень разные странные вещи. Поэтому я прежде всего скажу, что мы понимаем под искусственным интеллектом (мы – имеется в виду специалисты, которые занимаются созданием систем машинного обучения). Алан Тьюринг был человеком, в сущности, недоверчиво настроенным в отношении философов, и он всячески, когда определял термин искусственного интеллекта, стремился по возможности избежать определения понятия интеллекта. Потому что если мы будем определять понятие интеллекта, то мы можем на десятки лет погрязнуть в дискуссиях по этому поводу, поэтому, в общем, специалисты решили здесь отталкиваться от понятия интеллектуальной задачи. То есть, существуют интеллектуальные задачи – это задачи, которые люди традиционно решают при помощи своего человеческого интеллекта. И если мы создаём систему, которая предназначена для автоматизации решения такой задачи, то такая система является системой искусственного интеллекта. Ну, вроде бы всё неплохо, и спорить почти не о чем в этом определении, но здесь можно заметить, что это определение оно очень широкое, потому что если задуматься – люди очень много разных задач выполняют при помощи собственно интеллекта, например, задачи устного счёта. Если мы складываем или вычитаем числа, то в принципе получается, что мы задействуем при этом свой мозг, задействуем при этом свой интеллект. И в этом смысле примитивная система, которая автоматизирует задачу счёта, она тоже будет являться системой искусственного интеллекта в соответствии с этим определением. И вот чтобы здесь провести определённые границы, всё-таки разложив мухи и котлеты в разные тарелки, было введено ещё очень важное такое разделение, разграничение – это разграничение систем искусственного интеллекта на слабый искусственный интеллект, или как его называют прикладной искусственный интеллект, и гипотетический – пока не существующие системы универсального искусственного интеллекта, или иногда их называют системами сильного искусственного интеллекта – Artificial General Intelligence – существует такое понятие. В чём разница между этими двумя видами искусственного интеллекта? Слабый искусственный интеллект (или прикладной искусственный интеллект) – это система, предназначенная для решения какой-то одной специфической задачи. То есть у вас есть программа, которая хорошо играет в шахматы, она хорошо решает эту задачу, но она не может водить автомобиль, она не может распознавать образы, не может распознавать речь и не может выполнять ещё тысячу, сотни тысяч интеллектуальных задач – это прикладная система искусственного интеллекта. И в этом смысле все системы искусственного интеллекта, которые мы до сих пор создали, это прикладные системы искусственного интеллекта. А если говорить об универсальном искусственном интеллекте – это некая гипотетическая система, которая сможет решать неограниченно широкий спектр интеллектуальных задач подобно тому, как это делает человеческий мозг. То есть, любая задача, которая под силу человеческому интеллекту, она будет под силу такой универсальной системе. Ну, и среди слабых и прикладных систем искусственного интеллекта мы опять же говорим, что есть такая как бы неформальная граница, что какие-то простые тривиальные интеллектуальные задачи мы всё-таки не будем считать системы, которые предназначены для их автоматизации, системами искусственного интеллекта. Ну, это скорее уже вопрос вкуса, потому что, скажем, два столетия назад задача автоматического счёта при помощи машины была чрезвычайно сложной с технологической точки зрения и в принципе, конечно, там первые механические арифмометры были вершиной технологий того времени, и тогда никто бы не стал воротить нос от такой задачи как автоматизация счёта. Ну, на сегодняшний день, конечно, это как-то не очень вроде бы получается говорить о калькуляторе как о системе искусственного интеллекта. В принципе, что важно понимать? Важно понимать, что тот прогресс, который мы наблюдаем за последние там 5–10 лет в этой сфере – это прогресс, прежде всего, в создании прикладных систем искусственного интеллекта. И главным образом этот прогресс связан с тем, что целый ряд интеллектуальных задач, которые долгое время для систем искусственного интеллекта были недоступны, то есть, мы не могли, в общем-то, создать систему, которая бы эффективно решала такую задачу, вот эти задачи оказались решены. Например, это победа над человеком в го – достаточно раскрученная задача, потому что очень часто скептики любили приводить го в качестве примера такой задачи, которые машины решают плохо, существенно хуже, чем люди, и где прогресс чрезвычайно медленный. И, в общем-то, ещё 10 лет назад поговаривали всерьёз о том, что го либо невозможно решить при помощи существующих подходов, либо очень не скоро вообще удастся создать систему, которая будет играть в го. На самом деле существует огромный спектр таких задач, о которые в своё время сломала свой зуб первая весна искусственного интеллекта, которая началась в конце 50-х – начале 60-х годов и закончилась, в общем-то, крушением многих надежд, которые мы наблюдали в конце 70-х. И на долгое время системы искусственного интеллекта оказались забыты, собственно само понятие искусственного интеллекта стало таким немножко мусорным термином в массовом сознании. И, казалось бы, на долгое время такие модели как нейронные сети оказались забыты, их знали только узкие специалисты, где-то вот, ну, я когда получал своё айтишное образование, у нас был факультативный курс, на котором нам рассказывали, что вот есть такие нейронные сети, но это не рассматривали как мейнстрим каких-то моделей, способных решать серьёзные задачи. Но мы сейчас наблюдаем рассвет, прежде всего начавшийся как рассвет технологический, продолжившийся как рассвет медийный, и в настоящий момент, рассвет инвестиционный, потому что достаточно серьёзные деньги вкладываются сейчас в развитие систем машинного обучения искусственного интеллекта. И они оказались во многом реабилитированы в глазах как технических специалистов, как инвесторов, так и публики.

С чем вообще связаны вот эти успехи, которые мы наблюдаем? На мой взгляд, здесь есть три такие очень серьёзные предпосылки, почему это произошло именно сейчас. Первая, такого рода предпосылка – это увеличение вычислительных мощностей, которыми мы обладаем. Ни для кого не секрет, что пока что закон Мура работает, и вычислительные мощности растут такими похожими на экспоненциальные темпами, поэтому наша машина становится всё быстрее и быстрее. То, что было чрезвычайно трудно сделать два десятилетия назад, те размеры сеток, которые могли мы себе позволить (они были очень небольшими), – сейчас мы можем создавать более большие модели, можем задействовать больше вычислительной мощности. При этом здесь прогресс произошёл не только такой вот арифметический, в том смысле, что центральные процессоры стали быстрее. Но на самом деле есть и другая причина – мы научились использовать тензорные процессоры, вот в которые встроены сейчас видеокарты – это специализированное железо, которое позволяет ряд задач решать существенно быстрее, чем они решаются на центральных процессорах. И чуть-чуть забегая вперёд, скажу, что сейчас практически все хардверные гиганты ввязались в гонку по созданию специализированного оборудования для тренировки нейронных сетей. То есть, это уже не как таковые видеокарты, которые мы используем для обучения сети, а это специализированные платы, которые рассчитаны, прежде всего, на обучение нейронок. Вторая причина – это создание и накопление крупных массивов информации, на которых мы способны обучать системы машинного обучения. Если бы в конце 70-х годов вы захотели бы создать систему искусственного интеллекта, способную кое-что понимать в естественном языке, то вы бы натолкнулись на такую очень серьёзную проблему – то, что у вас было очень мало электронных корпусов текстов. То есть, конечно, вы могли бы взять кучу аспирантов или студентов, заставить их целый год за зачёты и за экзамены набирать «Войну и мир» и, наверное, они бы даже это сделали, но было бы потрачено очень много труда, на выходе вы бы получили на самом деле весьма скромный набор текстов по масштабам вообще всего многообразия языка. То есть, этот текст на самом деле даже близко бы не отражал все языковые особенности, всё богатство семантики, всё богатство лексики, которое существует в русском языке.

Благодаря же появлению интернета количество информации, которым человечество обладает, сейчас по разным оценкам в 2–4 года удваивается. То есть, это значит, что, в общем-то, накопленные на сегодняшний день объёмы информации они конечно колоссальны. И на сегодняшний день в плане естественного языка, в плане изображений, в плане видео, в плане звуков накоплены огромные-огромные массивы информации, которые даже не снились нашим предшественникам 20–30 лет назад. Ну, и не последний вклад, в общем-то, сюда внесла промышленная автоматизация, потому что мы активно с конца 80-х годов применяем компьютер в управлении производством, в управлении самыми разными процессами в обществе, и это всё приводит тоже к накоплению огромных массивов данных, на которых опять же системы могут учиться. Ну, вот для примера, например, это та компания, в которой работаю я, она с 2013 года каждый день осуществляет примерно 250 тысяч переговоров с людьми по телефону, и все записи этих переговоров они хранятся. То есть, 250 тысяч переговоров в день с 2013 года – это колоссальный массив информации с точки зрения лингвистики, с точки зрения фонетики, с точки зрения лексики и много-много чего ещё. На таком массиве можно на самом деле обучить систему понимать очень многое. Ну, и третье, но не наименее важное по значимости – это создание новых моделей. Вообще говоря, большая часть моделей, с которыми мы имеем дело сегодня, скажем, свёрточные нейронные сети или специфические виды рекуррентных нейронных сетей, например, LSTM сети – они были придуманы где-то на границе 90-х и 2000-х годов. Но как бы пока в этом направлении работало достаточно мало специалистов, конечно технологический gap был очень большим. То есть, скажем, в 1999 году была опубликована ключевая работа по свёрточным нейронным сетям Яном Лекуном, где он показал, что такого рода модели способны очень хорошо распознавать изображения. Но всерьёз внимание публики было к этой модели привлечено только в 2011 году с работами Хинтона [Джефри Хинтон] вокруг ImageNet, когда на ImageNet’ском корпусе нейронные сети показали огромный отрыв от конкурентных на тот момент моделей распознавания образов.

Этот слайд нужен не для того, чтобы его читать, он нужен для того, чтобы подавлять, вот каждый прямоугольник на этом слайде – это отдельная сфера применения технологий машинного обучения искусственного интеллекта. В принципе, здесь нарисовано три точки в правом нижнем углу, потому что это то, что удалось придумать и вспомнить достаточно быстро, а если посидеть подольше, то наверняка можно и в 2, и в 4 раза увеличить количество.

Ну, немножко о нейронных сетях и, вообще говоря, откуда эта модель появилась. Вообще в науке есть такой подход как бионика. Бионика – это такой, в общем, если у вас всё плохо, если у вас нет никакого хорошего инженерного решения, но система, подобная той, которую вы проектируете, есть в природе, то можно попробовать у природы это решение украсть, как-нибудь подсмотреть. Леонардо да Винчи, например, когда задумывался над созданием первых летательных аппаратов тяжелее воздуха, он активно изучал движение крыла птицы. Мы знаем, что в его черновиках есть множество зарисовок, множество эскизов, где он пытается, собственно говоря, постичь вот эту тайну полёта, чтобы затем воспроизвести её уже в механической конструкции. Ну, надо сказать, что бионика – это обычно вот самые первые шаги, самые первые движения технологии в новом направлении, и чаще всего технологические системы, которые в итоге становятся на долгое время основными решениями в технологии, они достаточно далеки от своих прототипов из живой природы. То есть, мы, в общем-то, видим, что самолёты не машут крыльями в отличие от птиц и, в общем-то, используют иные принципы. Но, тем не менее, на самом раннем этапе, на самых первых шагах наблюдение за живой природой оно может подтолкнуть к созданию каких-то хотя бы самых первых работающих моделей. И в этом смысле при создании искусственного интеллекта самый фактически первый подход, который появился, это был тоже такой же бионический подход, в конце 40-х годов Мак-Каллок и Питтс работали над моделью искусственного нейрона, и работа эта шла, в общем, достаточно в тесной связи с нейрофизиологами. Дело в том, что нейрофизиологи, конечно, оказались пионерами здесь, и они о работе нервной ткани, о работе мозга задумались гораздо раньше, чем специалисты по вычислительной математике. Ну, ничего удивительного в этом нет, но первая модель искусственного нейрона была создана в конце 40-х годов и, собственно, в 50-е уже появляются первые прототипы нейронных сетей.

Что удалось подсмотреть в живой природе? В живой природе удалось подсмотреть, что вот мозг представляет собой такую вот ткань, состоящую из нервных клеток, которые называются нейронами. И, в общем-то, можно заметить, что у каждого нейрона у него есть один длинный такой вот исходящий отросток, который называется аксоном, и некоторое количество таких коротких входных отростков, которые называются дендритами. И, соответственно, аксоны нейронов соединяются с дендритами других нейронов. И вот место контакта между аксоном и дендритом называется синапсом. В общем, присутствует такая синаптическая щель, в которую могут доставляться различные нейромедиаторы – это вещества, которые меняют как бы характеристику сигнала при прохождении его через контакт. Соответственно, наблюдение за этой тканью оно подсказало, что может быть создана, в общем-то, такая простая модель, которая представляет собой не что иное как взвешенный сумматор сигналов. То есть, вот если мы посмотрим на один нейрон единичный – у него есть вот эти вот дендриты, каждому синапсу сопоставим какое-то число, какой-то весовой коэффициент, и вот сигнал, который приходит через аксон вот на этот дендрит, мы будем домножать на этот коэффициент. И дальше все вот эти вот произведения мы их будем суммировать и трансформировать при помощи определённой переходной функции. Но надо сказать, что в первых вообще нейронных сетях это была не гладкая функция, а это была функция Хевисайда, так называемая. Она выглядела очень просто: вот если полученная сумма больше нуля, то на выход передаётся единичка, единичный сигнал. А если сумма меньше или равна нулю, то, соответственно, никакого сигнала на выход не подаётся, ну, подаётся как бы нулевой сигнал. Соответственно, веса могут быть там и положительными и отрицательными, то есть, здесь мы получили какое-то число на вход, умножили его на первый коэффициент, здесь получили число, умножили на другой коэффициент и так далее. И, соответственно, сложили это. Если сумма оказалась больше нуля, то мы передали по аксону дальше на следующий нейрон единичку, если нет – то не передали. Правда, такие сети не очень удобно учить, и поэтому со временем придумали, что здесь вот можно немножко хитрее себя повести: можно сделать такую вот какую-то функцию, в которой переход будет плавным, будет сглаженным, это может быть логистическая функция в данном случае, иногда ещё гиперболический тангенс использовали. В общем, такая очень простая математическая модель, которая, как оказалось, довольно неплохо работает и, оказалось, что такого рода сети, созданные из множества-множества нейронов, они на самом деле могут справляться с целым рядом задач по, например, распознаванию образов, задач классификации и так далее и так далее. Вот как раз те люди, которые эту работу проделали, Уоррен Мак-Каллок, Уолтер Питтс, Дональд Хебб. И, собственно, их этот искусственный нейрон. Первые воплощения собственно этой модели они, как это ни странно, были созданы не на основе существовавшей тогда цифровой техники, потому что цифровые машины были тогда слишком медленными для того, чтобы в реальном времени эмулировать сколь-нибудь большую нейронную сеть. Поэтому нашёлся такой смелый человек Фрэнк Розенблатт, и он, в общем-то, буквально соорудил первую искусственную сеть из палок и скотча практически. Это такой массив искусственных нейронов, вот эти вот проводки, которые здесь у него в кучу свалены, это такие искусственные синапсы. Просто вы брали такой проводок и соединяли соответственно какой-то нейрон, допустим, здесь и здесь, втыкали проводок в соответствующие гнёзда, и у вас получалась такая вот синаптическая связь. И всё это очень громко называлось нейрокомпьютер Марк-1. В общем-то, этому предприимчивому парню удалось даже продать некоторое количество такого рода устройств банкам. Ну, какие-то задачи решались даже при помощи таких железок. Это такой вот дальний-дальний прапраправнук такого рода устройства, это нейроморфный процессор TrueNorth компании IBM. Если посмотреть на вот эту железяку, то в ней 1 миллион нейронов искусственных и 256 миллионов эмулируемых синапсов. Но это, кстати, предыдущее ещё поколение, по-моему, сейчас 4 миллиона есть уже тоже такая же железка в том же формфакторе. По поводу опять же нейрофизиологических корней этой модели, значит, дело в том, что всё, что я вам рассказал до этого, на самом деле не имеет почти никакого отношения к тому, как на самом деле работает нервная ткань. Потому что та модель, которую создали Мак-Каллок и Питтс, она конечно очень далека от того, как на самом деле сигнал распространяется в настоящем мозге. А вот как сигнал распространяется в настоящем мозге, вот этими вопросами в 50-е годы занимались такие замечательные люди, как Эндрю Хаксли и Алан Ходжкин. И основным их, вообще, модельным объектом был мозг кальмара. Почему именно кальмара? Потому что у кальмаров и вообще у головоногих моллюсков у них очень крупномасштабные нейроны. То есть, если вы посмотрите: на предметном стёклышке лежит единичный нейрон мозга кальмара, вот эта вот длинная ниточка это, собственно говоря, аксон этого нейрона. И благодаря тому, что это такой крупномасштабный объект, его достаточно легко изучать, то есть, вы просто берёте вольтметр и, пожалуйста, прозваниваете всю эту сеть – чем, собственно говоря, и занимались Ходжкин и Хаксли. И в наследие от Ходжкина и Хаксли нам досталась так называемая модель Ходжкина–Хаксли, модель, наследники которой положены сейчас в основу отдельного большого направления, которое называется импульсные нейронные сети – spiking neural network. Вот это – нейронные сети, которые, в общем-то, обладают какой-то изрядной степенью биологической достоверности. Можно посмотреть, что происходило, вообще говоря, в плане достоверных моделей работы нервной ткани. Начиналось всё ещё в самом начале XX века работами Луи Лапика, который использовал нервы в ножках лягушки. И он, собственно, создал первую модель, которая называлась «интегрировать и сработать». И, собственно говоря, вот мы видим, что как раз вначале уже нулевых годов активно создаются модели, которые являются уточнениями в свою очередь модели Луи Лапика. И что касается аксональной части – это модель Ходжкина–Хаксли. И здесь опять же штука в том, что Ходжкин и Хаксли работали с нервной системой кальмаров. У кальмаров, вообще говоря, нервная система представляет собой пример конвергентной эволюции, то есть, она на самом деле таким является весьма косвенным родственником нервной системы млекопитающих, и поэтому не совсем все выводы, которые были сделаны Ходжкиным и Хаксли, верные в отношении там мозгов крыс или людей, например.

Что делают учёные сегодня для того, чтобы лучше понять, как устроен мозг? Один из самых наверно прекрасных, красивых и сравнительно небольших проектов – это проект EyeWire, созданный учёными из MIT (Массачусетского технологического института). Вообще его история начинается с того, что жил-был мышонок Гарольд, и потом мышонок Гарольд умер. Говорят, что даже собственной смертью. После этого его мозг был изъят и нарезан микронными слоями, пропущен через электронный сканирующий микроскоп и, соответственно, было получено огромное количество срезов фактически толщиной с единичную клетку. И теперь задача собственно этого проекта EyeWire она была в том, чтобы воссоздать полностью трёхмерную синаптическую структуру мозга этого мышонка. Но, в общем-то, даже примерные прикидки показывали, что там тех трёх десятков человек, которые работали в этом проекте, было даже близко не достаточно для того, чтобы за любое разумное время расшифровать все эти снимки. Поэтому был придуман дьявольский план, который заключался в том, что была создана онлайн-игра EyeWire, в которой вы можете зарегистрироваться и соревноваться с другими игроками в том, кто из вас лучше умеет раскрашивать срезы мозга мыши. Вам выдаются такие кубики, вы их маркерами раскрашиваете. Если вы раскрасили правильно, то вам начисляется много очков. Если вы раскрасили неправильно, то вам совсем мало очков начисляется. Ну, и дальше есть таблица рекордов, и вы можете, в общем, гордиться тем, что набрали много очков. Но, в общем, в силу того, что игра конечно несколько, как говорят, creepy, в неё не очень много людей играет, но, по крайней мере, в неё поиграло достаточное количество людей, чтобы создать обучающий массив раскрашенных срезов для того, чтобы затем обучить искусственную нейронную сеть свёрточную выполнять эту раскраску автоматически. То есть, вот такой красивый двухступенчатый проект, в результате которого был создан инструмент для автоматической расшифровки вот таких наборов срезов и, соответственно, визуализация кусочка сетчатки глаза мышонка Гарольда.

Самый большой, конечно, проект, который посвящён расшифровке процессов, происходящих в мозге млекопитающих – это проект Blue Brain, который стартовал ещё в начале нулевых годов, и амбициозной целью этого проекта является создание работающей электронной копии человеческого мозга, работающей биологически достоверной модели. И timeline проекта предполагал изначально, что к 2023 году собственно будет получена первая такого рода модель. Правда, нам не обещали, что она будет работать в реальном времени. По всей видимости, это всё-таки там десятки тысяч раз задержка по сравнению с настоящим мозгом. Что, собственно говоря, проделано было в ходе этого проекта? Во-первых, была воссоздана колонка неокортекса крысы из 10 тысяч клеток, и вот на этой колонке было показано, что сигнал в ней распространяется действительно так же, как в настоящей колонке неокортекса. То есть, данные моделирования совпадали с распространением сигнала в настоящей колонке. В июле 2011 года они сделали мезозамыкание в 100 колонок неокортекса, то есть, миллион клеток. И, в общем-то, к 2014 году нам обещали работающую копию мозга крысы. Но пока что результаты не опубликованы. Сложно сказать, отстают ли специалисты от графика, или может быть у них уже всё получилось, они просто не хотят нам этого показывать. Но если посмотреть на публикации, которые участники проекта выпускают, то видно, что в 2015 году они совершили фундаментальные открытия, которые, по всей видимости, требуют некоторой переработки того, что было уже сделано. Была открыта вторичная сеть распространения сигнала в мозге через астроциты глиальной ткани, то есть, оказывается, что сигнал, вообще говоря, распространяется не только через нейроны, через синапсы, но и в передаче сигнала могут участвовать астроциты. Соответственно, такая вот красивая есть публикация на эту тему. Посмотрим, посмотрим, по крайней мере официально о переносе вот этого дедлайна до 2023 года пока не объявлялось. Эти работы по анализу структуры сетчатки, строго говоря, не EyeWire, конечно, а более ранние работы, которые были проделаны в этой же сфере, они вдохновили специалистов по вычислительной математике на создание новых вычислительных нейронных сетей, новые их разновидности – это свёрточные нейронные сети. Свёрточная нейронная сеть – это нейронная сеть, которая создана как раз под впечатлением от анализа структуры сетчатки. Одним из проклятий нейронных сетей в 70-е годы было то, что ну, хорошо, мы придумали саму по себе модель, мы придумали, как работает единичный нейрон, мы придумали, как связывать нейроны между собой. Какую топологию должна иметь сеть, которая эффективно решает ту или иную задачу? Вот какие именно нейроны, с какими другими нейронами должны быть связаны? Мы научились более-менее нормально учить сети, особенно с появлением алгоритма обратного распространения ошибки. Вот если у нас уже есть готовая синаптическая структура, мы более-менее знаем, как её градиентными методами учить. Но какие нейроны с какими связывать? И на эту тему на самом деле много было разных поисков, шуток, прибауток, попыток там случайным образом генерировать эти связи. Совершенно очевидно, что в мозге человека не каждый нейрон связан с каждым. То есть, у нас 86 миллиардов нейронов примерно, 150 триллионов синапсов в одной только коре мозга взрослого человека, но это совсем гораздо меньше, чем 86 миллиардов в квадрате. То есть, совсем не каждая клетка связана с каждой. Какая хорошая мысль пришла в идее в конце 90-х годов о том, что на самом деле можно использовать принцип такого конструктора Лего. То есть, можно придумать слои, которые построены по определённым регулярным паттернам. То есть, например, слой, в котором каждый нейрон предыдущего слоя связан со строго четырьмя нейронами следующего слоя. И соседний с ним нейрон тоже связан с четырьмя нейронами следующего слоя, и соседний тоже и так далее и так далее. И получается такая регулярная структура, то есть, один слой нейронной сети описывается в виде просто повторяющегося регулярного шаблона. И вот за счёт того, что мы эти слои как бы параметризуем, мы получаем набор таких кирпичиков строительных, из которых мы можем нейронную сеть собрать и, подбирая параметры отдельных кирпичиков, и, подбирая наборы этих кирпичиков, мы соответственно создаём эффективную модель для того, чтобы решать те или иные задачи. Но, а собственно конкретно сетчатка она подсказала то, что действительно есть такая операция как свёртка, когда какой-то небольшой регион, какой-то небольшой участок светочувствительных рецепторов, из него следующий аксон исследует там во 2, 3, 4, 5 слои, и связи эти тоже подчиняются определённому регулярному закону. Воссоздав такого рода сети, мы увидели, что они очень эффективно способны распознавать изображения. На сегодняшний день наследники этой лекуновской сети они обогнали человека в точности распознавания образов. Вот это задачка, с которой начинал Лекун распознавание рукописного текста MNIST-массив.

Вот, что происходило с распознаванием образов. Вот видите 2010 год, ImageNet – это крупнейшие соревнования по распознаванию образов. У вас есть несколько миллионов изображений, и вам нужно определить наличие определённых объектов на картинке: птицы, человека и так далее – большой набор объектов. В 2010 году вот ошибка на вот этом ImageNet’ском массиве составляла 28% для лучшей модели, которая на тот момент существовала. И вот, собственно говоря, 2011 год сюда приходят первые свёрточные нейронные сети, и мы дальше видим, что в 2014 году вот этот показатель он падает до 7%. На самом деле в 2015 году он падает до 4 с небольшим процентов. Считается вообще, что люди допускают 5% примерно ошибок на этом сете. То есть, таким образом, в 2015 году был впервые достигнут паритет с людьми в распознавании образов. Здесь такая вот непонятная диаграмма, она на самом деле показывает, что вот по оси Y здесь точность распознавания, то есть, чем выше кружок находится, тем более точно модель распознаёт картинку. По оси X это количество миллионов операций для вычисления сети одиночного. То есть, мы впихнули в неё картинку, сколько миллионов операций мы должны произвести, чтобы у нас получить на выход какое-то решение. И, соответственно, количество синапсов, условно говоря, в сети – это диаметр этого кружка. Мы видим, что современные модели могут ограничиваться сравнительно небольшим числом синаптических связей, при этом демонстрируя более высокую точность, чем более старые модели. На самом деле здесь погоня, конечно, идёт за оптимальными уже архитектурами такого рода искусственных сетчаток. Там придумано множество трюков, каким образом такую сеть можно сделать более точной. Ну, вот, что умеют современные нейронные сети – они могут решать такие вот комбо-задачи, то есть, они могут подписать вам словами естественного языка, что нарисовано на этой картинке. Не всегда это получается точно, но на самом деле в большинстве случаев очень даже неплохо. Ну, даже когда ошибается, то, в общем, ошибки выглядят вполне по-человечески.

С распознаванием речи на самом деле очень похожая ситуация. Здесь все хорошо выступили рекуррентные нейронные сети, с элементами опять же тоже свёртки. В 2016 году исследовательская команда из Microsoftпоказала на неком химически чистом датасете точность распознавания речи, сопоставимую с точностью, демонстрируемой людьми. Конечно, есть некоторая критика этой работы, но в целом можно сказать, что действительно state-of-the-art technology на сегодняшний день таков, что если даже паритет не достигнут, то, по крайней мере, он очень-очень близко. Если брать опять же мою команду, одним из решений, которые мы разрабатывали, была система для автоматизации оператора кол-центра. И для любых практических целей, для того чтобы понять, что вам человек сказал по телефону, – нынешних систем распознавания речи достаточно, даже несмотря на высокую зашумлённость сетей, потому что там сигнал проходит через кучу искажений и так далее. Вот тоже одни из достижений свёрточных нейронных сетей – генеративные модели – последние несколько лет достаточно активно нейронные сети используются не только для того, чтобы распознавать изображение, но и для того, чтобы создавать новые изображения. На чём основывается идея? Вот у вас есть сеть, которая распознаёт собак. Натренировали её на большом количестве изображений собак. Научили отличать картинки, на которых есть собака, от картинок, на которых собаки нет. И вы теперь, взяв какое-то произвольное изображение, получив для него как бы некую оценку степени собачности этого изображения, пробуете теперь пойти от конца – увеличить степень собачности той картинки, которая поступила на вход в сеть. Вы для этого просто идёте по сети справа налево, домножая значение сигнала в каждом нейроне пропорционально весовым коэффициентам свёрточных ядер. И на первом слове вы получите картинку с усиленной степенью собачности. То есть, всё, что было отдалённо-отдалённо похоже на собаку, теперь на собаку похоже сильно. Этот проект назывался Deep Dream, он вылился в целое большое направление, которое называется Artistic Style Transfer, то есть, перенос художественного стиля. Вы можете научить сеть особенностям письма какого-то художника, и потом перенести вот этот стиль на любое произвольное изображение. Вот несколько ещё примеров такого рода для развлечения. Ну, вот здесь вот нарисована картина, которая на вход подавалась, картина, на которой учили стиль, и собственно вот. Из вот этих двух изображений получается вот это третье. То есть, достаточно одного изображения для того, чтобы стиль выучить. Если их много, то тем лучше. Совершенно очевидно, что этот же инструмент можно использовать для раскраски чёрно-белых изображений, тут тем более всё очень сильно упрощается, потому что для обучения такой сети вам по сути дела никак не нужно размечать датасет. Вы просто берёте много-много картинок, обесцвечиваете их, вот у вас есть как бы пары, и дальше вы учите эту сеть раскрашивать картинки. На самом деле, если так вдуматься, на чём основано то, что эта сеть работает, ну, она на самом деле выучивает, какого цвета бывают разные объекты. То есть, по сути дела, это о том, что пропустив через себя миллионы картинок, сеть понимает, что человеческая кожа она имеет такой оттенок, что гребешок у петуха красный и так далее и так далее. То есть, увидев где-то гребешок, по сути дела научившись его распознавать, она тем самым понимает, какого цвета этот объект. Там, где опять же эти модели ошибаются, ну, вот здесь как раз пример, то есть, картинка чёрно-белая, вот эта раскраска выполнена сетью, а это оригинальная картинка. То есть, мы видим, что сумка она на самом деле вот такая вот красная, а здесь она получилась бурая. Ну, как бы, почему бы сумке не быть такого цвета – никакого противоречия как бы реально существующим в действительности объектам в этой раскраске нет. Это мой любимый, конечно, проект. Оказывается, при помощи этого подхода можно генерировать порно, потому что если у вас есть модель для распознавания порно на картинках, а, в общем-то, у всех крупных соцсетей, крупных собирателей контента, есть такого рода модели для того, чтобы отличать, что можно детям показывать, что нельзя. Можно потом взять эту картинку и эту сеть и опять же также вывернуть её наизнанку, заставив генерировать её картинки с заданным градусом порно. То есть, это маленький градус порно, это такие пасторальные картинки, по мнению сети, а это такой, в общем, хардкор. Видно, что пока качество не очень конкретно в этом проекте, но я думаю, что технологии будут совершенствоваться, и скоро качество порно вырастет.

Теперь, когда я пробежался галопом по Европам по тому, что происходит вообще в сфере искусственного интеллекта, я расскажу собственно о медицинских применениях искусственного интеллекта. Основные, наверное, на сегодняшний момент 8 направлений, в которых в медицине применяются системы искусственного интеллекта, это распознавание медицинских изображений. Совершенно очевидно напрашивающаяся задача. У нас есть множество рентгенографических снимков, КТ, МРТ и так далее и так далее, помимо этого у нас есть данные электрокардиограмм, электроэнцефалограмм и так далее и так далее. Всё это, в общем-то, можно описать одним широким термином – медицинские изображения. И, соответственно, задача поиска на этих изображениях определённых объектов, представляющих собой какой-то особый интерес, она, конечно, совершенно напрашивающаяся с учётом того, что достигнут большой прогресс в сфере распознавания изображений.

Анализ медицинских текстов. Ну, медицинский текст опять же очень широкое понятие. Во-первых, есть огромный корпус медицинских исследовательских публикаций, то есть, если мы возьмём какой-нибудь PubMed, на нём миллионы документов, которые, конечно же, человек вручную прочитать вряд ли сможет за какое-то разумное время. Соответственно, система, которая способна выявлять в этих документах какую-то важную информацию, какие-то важные фичи и затем обобщать её на больших массивах информации, она, конечно, представляет достаточно серьёзную ценность. На самом деле помимо исследовательских текстов существует ещё довольно большой массив такой рабочей медицинской информации: это истории болезни, это разная другая текстовая пациентская информация, которая опять же существует, конечно, совершенно не в стандартизованном виде. То есть, обычно, как бы частичная стандартизация существует в рамках отдельных медицинских учреждений или отдельных национальных систем здравоохранения. И в этом смысле, допустим, задача сведения всего вот этого многообразия пациентской информации к какой-то единой структуре сопоставимой – это, конечно, задача для такой интеллектуальной обработки данных при помощи систем искусственного интеллекта. Вручную вряд ли весь этот массив информации можно обработать.

Медицинские интерфейсы. Я говорил уже об успехах в области распознавания речи, на самом деле большие успехи наблюдаются и в сфере синтеза речи и, соответственно, видеокоммуникации. То есть, есть модели, которые по губам умеют читать текст, которые умеют определять эмоции человека по видеозаписи, которые умеют даже ставить некоторые диагнозы по фотографиям – немножко об этом позже расскажу. Соответственно, в момент, когда вам нужно взаимодействовать с пациентом, взаимодействовать с человеком – где-то тоже эту задачу можно автоматизировать, то есть, задачу, например, первичного опроса пациента – её вполне может производить автоматизированная система, которая будет собирать некоторую первичную информацию, производить её некоторую первичную обработку. Преимущества, конечно, таких систем – это баснословная дешевизна по сравнению с тем, как если мы затрачиваем на такую задачу время квалифицированного специалиста. То есть, даже в кол-центре, например, вот автоматизированный оператор кол-центра, который просто следует определённому скрипту, в котором там 50–60 состояний, несмотря на то, что традиционно на кол-центрах экономят, эти кол-центры там работают в российской глубинке, и ставка там сотрудника кол-центра 15 тысяч рублей в месяц, но робот всё равно в 4 раза дешевле, то есть, несмотря на то, что это пока такая технология, граничащая с экспериментальной. Поэтому в ряде случаев люди банально не имеют доступа к нормальной медицинской помощи в силу того, что нету такого количества врачей. Врачи действительно из-за того, как распределяются бюджеты у нас в стране, и не только у нас в стране, но и во всём мире – это дефицитный ресурс. Где-то благодаря использованию таких интерфейсов можно увеличить доступность медицинской помощи.

Обработка сигналов в бионических протезах. Это отдельное большое направление. Мы научились на самом деле очень много сложных устройств создавать для того, чтобы восстанавливать утраченную функциональность организма. Из таких наиболее сложных, наверное, можно назвать аппараты искусственного зрения. Вообще говоря, первые аппараты искусственного зрения появились ещё парадоксальным образом в конце 70-х годов и связаны были с работами такого специалиста, как Уильям Добелл. Но это, конечно, совершенно удивительная история о том, как в конце 70-х проводились операции на открытом мозге, вживлялись в зрительную кору пучки тонких-тонких электродов, 39, по-моему, электродов было у Добелла в его оригинальной схеме. Это ещё было время, когда не было цифровых камер, когда не было быстрых компьютеров. По сути, аналоговая камера подключалась к целому мейнфрейму, который «процессил» потом этот сигнал. Потом всё это дело подключалось к человеку. Естественно, такого рода операции никто бы не одобрил в цивилизованном мире, поэтому Добелл возил своих пациентов в нецивилизованный мир, тогда Португалия была нецивилизованным миром. В Португалию он возил своих пациентов, им там делали операции, собственно вживляли микроэлектроды в мозг, и затем он подключал их соответственно к машине. И вот люди видели такие вспышки света в поле зрения, они назвали их фосфены. И вот 30 лет примерно эту технологию постепенно-постепенно совершенствовали, пока в начале нулевых годов на коммерческой основе первые такого рода операции стали делать. Есть книжка одного из пациентов Добелла Дженса Науманна, который рассказывает всю свою историю. В начале 2000-х при помощи протеза зрения можно было даже читать буквы, но где-то там 7–8 сантиметровой высоты, можно было даже водить автомобиль вокруг дома, но так очень медленно и аккуратно и под присмотром других людей, но тем не менее. В этом году у нас в стране первая была проведена операция по вживлению протеза зрения – это такая система Argus, она конструктивно на самом деле проще, чем аппараты, которые Добелл использовал. Но это на самом деле история долгая. Есть опять же, вошло уже на сегодняшний день в широкую практику протезирование потери слуха – это так называемые кохлеарные имплантаты. Причём на сегодняшний день это уже настолько обыденная операция, что детям, например, с потерей слуха им устанавливают сразу два кохлеарных имплантата для того, чтобы обеспечить объёмный слух. То есть, считается, что эта операция она достаточно тривиальна. На самом деле под череп вставляется беспроводной приёмник, который транслирует сигнал, передаёт его в улитку, а снаружи ставится передатчик, прикрученный к микрофону, и такой микропроцессор, который этот сигнал «процессит» и преобразует в аналоговый сигнал, который потом мозг в состоянии распознать. Соответственно, активно создаются и протезы конечностей, протезы с обратной связью, естественно, которые способны нервную систему обратно транслировать, сообщая о текстуре объекта, его плотности и так далее. Вот для того, чтобы сигналы «процессить» грамотно, на самом деле нужно обрабатывать большие объёмы данных. Для того чтобы настроить такого рода протез, подстроить его под нервную систему конкретного человека, скоммутировать вот эти каналы передачи информации между железкой и мокрой частью системы – вот для этого тоже нужны модели машинного обучения, системы искусственного интеллекта. Чем более они продвинуты, тем соответственно больше качество такого рода протезов мы можем обеспечить.

Медицинские роботы. Опять же здесь есть много примеров, я тоже сейчас покажу несколько таких проектов. Это и где-то помощь врачам, там, где, например, медицинский персонал очень дорог, там активно развиваются такого рода системы. Например, в Японии есть специализированные роботы для переноски пациентов, потому что, оказывается, опять же, что такая система, не смотря на всю её громоздкость и очевидную технологическую сложность, дешевле, чем высокооплачиваемый медицинский персонал.

Анализ данных носимых устройств. У каждого, наверно, почти человека на сегодняшний день есть мобильный телефон, в мобильном телефоне на самом деле есть очень ценный датчик – это акселерометр, иногда даже и гироскоп есть, и как это ни странно, вот эта информация, которую собирают эти датчики, она может быть очень полезна с точки зрения диагностики. Оказывается, что имея при себе такое устройство, некоторые, скажем так, опасные состояния можно диагностировать. И это на самом деле очень здорово, и сейчас активно разрабатываются такого рода модели, которые будут помогать некие превентивные действия осуществлять. Не говоря уже о том, что есть разного рода специализированные носимые устройства, есть вот, например, кардиофлешки, то есть, это такие устройства носимые, которые вам позволяют сигнал о деятельности вашего сердца снимать в реальном времени, что конечно чрезвычайно полезно с учётом того, что основная причина смертности у нас это сердечно-сосудистые заболевания.

Ещё одно направление – поиск новых препаратов. Это особенно интересно в связи с тем, что большой успех был достигнут в принципе в создании новых веществ при помощи современных методов машинного обучения, в частности есть такой метод роя частиц. И вот его наследники, например, у нас в стране работает такой замечательный специалист как Артём Оганов, который прогнозирует кристаллическую структуру веществ, по их формулам прогнозирует свойства веществ и, конечно, у этого направления очень большая перспектива в плане создания перспективных лекарств.

И самое очевидное направление, которое развивается достаточно давно – это автоматизированная диагностика, экспертность темы для автоматической постановки диагноза на основе каких-то больших наборов информации о пациенте. Вот это основное. На самом деле есть, конечно, кое-какие там ещё дополнительные направления, но мы сегодня будем говорить о них.

Что важного мы наблюдаем в сфере экономики искусственного интеллекта, медицинского искусственного интеллекта? Вот 2014–2016 годы ознаменовались несколькими такими очень серьёзными марьяжами между компаниями, специализирующимися на работах в сфере машинного обучения, и медицинскими компаниями. Мы видим, что в первую очередь в медицину пошли крупные IT-гиганты, которые почувствовали за собой силу тех инструментов, которые были ими созданы. Наверное, самая знаменитая и первая история, которую некоторые даже считают фальстартом – это Watson Health программа и отдельно её большой спин-офф, о котором тоже немножко сегодня скажу, Watson for Oncology – это проект, посвящённый диагностике и терапии рака. «Инициатива Чан – Цукерберг» биохаб, посвящённая поиску лекарств и созданию клеточного атласа. Google основал компанию Calico, которая специализируется на борьбе со старением. Большая биологическая секция была открыта Intel. Microsoft заявила о том, что будут предоставлять облачные сервисы для поиска лекарств. Apple сказала, что сконцентрируется на анализе данных носимых устройств в сфере состояния здоровья. Bioepis [Samsung Bioepis] и Takeda [Takeda Pharmaceutical Company Limited] – большой проект по созданию новых лекарств. Takeda – это крупнейший фармгигант японский. И вообще в 2016 году было открыто 106 стартапов, предполагающих использование искусственного интеллекта в различных областях здравоохранения.

Диагностика и выбор оптимального плана лечения. Вот на примере собственно системы Watson. На самом деле Watson – это некая такая заявка на универсальную систему для сентенс-анализа (sentence analysis) текстов. Началось всё с того, что Watson for Oncology был подготовлен обучающий массив, обучающая выборка, было взято 100 тысяч медицинских документов, это примерно 15 миллионов страниц текста, и в это всё входили 25 тысяч историй болезни, 300 медицинских журналов и 200 медицинских учебников. Соответственно, IBM основал целый ряд проектов совместных с медиками по созданию системы Watson for Oncology. Это всё как бы сухие цифры и что-когда произошло. На что это похоже? То есть, всегда люди, которые слышат про Watson for Oncology, им интересно, конечно, узнать, что это представляет собой для конечного пользователя. Вот это один из интерфейсов Watson for Oncology. Что мы на нём видим? Эта система рекомендует нам планы лечения, и каждый план лечения он, во-первых, имеет определённую там оценку outcome – насколько этот подход оправдан в данном конкретном кейсе. Здесь же сразу есть возможность дать обратную связь, и врачи, которые используют Watson, имеют возможность туда написать сразу комменты, если они вот там либо применяли этот метод лечения, либо там имеют какое-то мнение по поводу этого плана лечения – они вот эту обратную связь сюда в состоянии добавить. Здесь же есть возможность посмотреть связанные с этим кейсом клинические исследования, то есть, вы, перейдя сюда на эту вкладку, увидите список публикаций по результатам клинических исследований, имеющим отношение к данному конкретному кейсу. На вход системы подаются, во-первых, медицинские изображения, то есть, различные сканы, если у вас есть какие-то данные рентгенографии, плюс некая такая большая анкета, которую пациент заполняет по поводу своего состояния, каких-то объективных данных. Туда же вносятся результаты анализов самых разных, вот все, которые вы сдавали анализы, они туда вносятся, то есть, получается такой большой кирпич информации о пациенте, на основе которого Watson, собственно говоря, выдаёт вот этот список рекомендаций. Как видим, это система, в общем-то, она предназначена для врачей, то есть, это система поддержки принятия решения. Есть разного рода восторженности и отзывы о работе этой системы, но нужно понимать, что её, конечно, очевидным недостатком на сегодняшний день является то, что она заточена под очень небольшое количество заболеваний. То есть, конкретно 9 типов рака, 6 сейчас, 9 планируют добавить ещё, таким образом, вот вроде как 80% охватит по частотности. Но есть критика, есть критика содержательная, мы сейчас её здесь, конечно, подробно не разберём. Например, одно из направлений критики это то, что те рекомендации, которые Watson выдаёт, очень в большой степени находятся под влиянием конкретных консультантов, которые консультируют Watson, и, в общем-то, не все согласны, что они являются эталоном в этой области. Плюс, конечно, проект очень дорогой и который уже долгое время продолжается. Тем не менее, есть возможность заглянуть посмотреть, как эта система работает. Когда они начали свой индийский проект Manipal Hospitals, на сайте manipalhospitals.com можно посмотреть, там есть демоверсия как раз интерфейса Watson. Это примерно оборот маленького такого проектика, в котором работают никакие не гиганты, а, в общем, совсем небольшой стартап.

Диагноз по фотографии. Ну, звучит смешно, но на самом деле речь-то идёт о тех заболеваниях, которые действительно отображаются на внешнем облике человека, это в основном хромосомные аномалии, синдром Дауна, например, и целый ряд других хромосомных аномалий. Вот такой проект Face2Gene. То есть, вы грузите туда просто фотографию и, соответственно, 7 тысяч известных генетических синдромов, которые влияют на вид человека, позволяют вам выявить.

Ну, вот медицинские роботы, о которых я говорил, тут, конечно, нельзя отказать в юморе создателям этого проекта. Проект называется ROBEAR. Такой вот педобир, который переносит пациентов. 140 килограмм конструкция весит, позволяет очень аккуратно и нежно и трогательно переносить людей на руках. И, собственно, проект уже достаточно заслуженный, потому что первый прототип появился в 2009 году, он назывался RIBA. И, в общем-то, вот на сегодняшний день уже в стадии тиражирования. Но это традиционная проблема, на самом деле даже низший медицинский персонал в Японии это очень дорогие сотрудники, поэтому, конечно, идёт поиск такого рода решений. А то, что у нас сегодня в Японии, наверно через 10–15 лет будет и в других местах.

Это другая история, это роботы Да Винчи (Da Vinci), про которых наверняка многие слышали. Опять же нужно понимать, что это не совсем роботы, то есть, это скорее система, являющаяся ассистентом хирурга, но она позволяет выполнять операцию хирургу в одиночку там, где, в общем-то, в обычных условиях ему ассистируют множество других сотрудников. И некоторые хирургические манипуляции эта система способна осуществлять гораздо точнее человека. То есть, например, в случае удаления раковых опухолей Да Винчи выполняет такую операцию, он срезает буквально один клеточный слой ткани, тут же проводит биопсию. Если в этом слое не обнаружено раковых клеток, то он срезает ещё два слоя для надёжности. И таким образом как бы снижается инвазивность вмешательства. То есть, там, где хирург откромсал бы изрядное количество здоровой ткани, там Да Винчи произведёт операцию с хирургической точностью. Вообще изначально это решение разрабатывалось для военных. Считалось, что в полевых госпиталях можно будет его применять. Но военные признали непрактичным это решение, поэтому оно досталось гражданской сфере. В 2012 году в мире было выполнено 200 тысяч операций с использованием Да Винчи. Количество это только растёт. Россия по количеству таких роботов отстаёт, но, тем не менее, уже около сотни их в России есть. Во всём мире несколько тысяч, ближе уже наверно к 10 тысячам.

О тех марьяжах, о которых я говорил, наиболее известные из них, то есть, это союзы Data Science компаний с фармгигантами, вот 4, наверно, самых знаменитых: Google DeepMind заявил свои претензии на тему поиска новых препаратов. С англичанами они сейчас совместный проект открывают, деталей мы не знаем, но было заявлено о том, что работа такая ведётся. Дальше это Pfizer с IBM подписал совместный проект, тоже посвящённый поиску лекарств. Sanofi и GENZYME и Recursion Pharmaceuticals с GSK и Exscientia и Evotecс Celgene. Вот такой набор союзов. Посмотрим, скоро мы должны увидеть какие-то первые результаты этого направления. Пока что ожидания весьма радужные, объёмы инвестиций большие в эту сферу.

Ну, вот о бионических протезах, о которых я чуть-чуть сказал уже, это как раз кохлеарный имплантат, можно посмотреть, как это всё выглядит. Передающая катушка, приёмник и, собственно говоря, вот прямо в улитку мы заводим сигнал. Вот ребёнок. У моих друзей у ребёнка установлен такой кохлеарный имплантат, причём операцию делали, наверно, лет 6 назад, то есть, тогда это было уже более-менее распространено. Сейчас это уже никакой не хайтек считается. Это вот картинки этих ужасов Уильяма Добелла. Это вот Дженс Науманн как раз показан здесь со своим девайсом волшебным. На самом деле история конкретно протезов Добелла она окончилась не очень хорошо, потому что Добелл имел неосторожность умереть достаточно неожиданно («ожиданно» оно вообще не очень часто бывает). А как всякие люди, сильно забегающие вперёд, он не очень себя утруждал хорошим документированием того, что он сделал. И, вообще говоря, то, что осталось после него, это было, конечно, не очень юзабельно. Конечно, другие лаборатории догнали и перегнали на сегодняшний день те успехи Добелла, но конкретно для тех 16 пациентов, которым в 2002 году были установлены аппараты Добелла, они на сегодняшний день все лишились зрения по второму разу, потому что, конечно, технология грубая. То есть, там, во-первых, в ряде случаев инфекционные осложнения возникали, конкретно у Дженса Науманна из-за инфекционных осложнений были вынуждены удалить интерфейс, это тут он уже после операции, после удаления. И вдобавок там есть проблема рубцевания ткани, миелинизация, то есть, со временем такого рода системы они начинают всё более и более плохо передавать сигнал. Но дело в том, что это, конечно, уже прошлый век, потому что на смену такого рода интерфейсам, основанным на вживляемых в мозг электродах, сейчас пришли оптогенетические решения. Оптогенетика, если вкратце, это такой подход, при котором мы при помощи вирусного вектора модифицируем нейроны, выращивая на них фоторецепты на основе белка каналородопсин-2 (ChR2). И вот дальше вы можете на вот этот участок мозга, который вы таким образом трансформировали, можете светить светом и, соответственно, в нейронах будет возникать возбуждение, и этот сигнал дальше уже будет по нейронной сети передаваться. При помощи такой технологии сейчас сделали, например, целый ряд проектов с радиоуправляемыми животными. Радиоуправляемая стрекоза, например, в начале прошлого года такой был очень красивый проектик показан, можете на YouTube просто поискать Cyborg Dragonfly – и там, соответственно, будет множество видео на эту тему, как это всё работает. Там стрекоза мало того, что таскает вот это микроустройство, которое передаёт ей в мозг сигналы, заставляющие её лететь в разных направлениях, она на себе ещё тащит микро-GPS датчик с навигацией полноценной, то есть, в общем, такое уже устройство вполне взрослое. А так-то в принципе проектов множество на эту тему и в прошлом году впервые было одобрено применение оптогенетики на людях. Небольшая компания получила это разрешение от FDA, и её тут же купил фармгигант Allergan, пока в целях восстановления зрения, конечно. То есть, там, где повреждены именно слои, утрачены фоторецепторы, предполагается, что будут микроинъекции осуществляться этих вирусных векторов, и будут создаваться новые фоторецепторы. Я думаю, что дальше больше, и мы увидим, конечно, здесь много чего интересного. Тем более что природа нам показывает вообще множество очень интересных примеров того, что такого рода технологии они вполне жизнеспособны. Очень показателен пример двух сестёр близнецов Кристы и Татьяны Хоган. Это девочки краниопаги. Краниопаги – это сиамские близнецы, которые срастаются головами в утробе матери. И вот конкретно в случае Кристы и Татьяны Хоган они срослись не только головами, но и мозгами. И между мозгами этих девочек образовалась такая структура, которую назвали таламический мост. И она обладает очень интересными свойствами. Благодаря ней девочки могут обмениваться образами друг с другом, то есть, будучи разделёнными непрозрачной ширмой, они в состоянии передавать информацию об объектах, которые они наблюдают, у них при этом совершенно независимые личности, то есть, у каждой из них свои вкусы, свои индивидуальные предпочтения. В то же время они способны эффективно коммуницировать, используя этот таламический мост. И вот этот пример он показывает нам, что рано или поздно, когда уровень развития технологий нам позволит, благодаря нейропластичности мы сможем, скорее всего, создавать подобного рода системы и не только для восстановления зрения, но и для гораздо более весёлых вещей.

Распознавание медицинских изображений. Здесь вот есть такая модель, которая называется U-Net. Это, собственно говоря, наследник архитектуры RezNet для распознавания образов. При помощи этой архитектуры решено очень много задач по распознаванию медицинских изображений в самых разных сферах, например, в цитологии – раскраска клеток, клеточных культур. Голубенький такой вот цвет это то, что модель распознаёт границы клетки, а жёлтое – это вот ручная разметка, собственно говоря, то, что было. И, соответственно, в очень-очень большом количестве направлений на сегодняшний день применяют. Проводятся периодические соревнования по распознаванию медицинских изображений. Самое, наверное, известное это Grand Challenge for Computer-Automated Detection… а, это ISBI 2015 большая конференция, а тут отдельные в ней «подчелленджи» как бы. Тут вот кариес распознавали. И Cell Tracking Challenge – это вот конкретно U-Net победил в этих двух челленджах. Cell Tracking это вот как раз распознавание клеток в клеточных культурах. Но на самом деле в этом челлендже, в нём есть куча всяких там поиск опухолей на рентгеновских снимках и так далее. Причём вот как бы точность решения этих задач она на сегодняшний день не уступает людям. То есть, в том плане, что мы умеем распознавать объекты не только там кошечек, собачек эффективно, но и вот такие медицинские объекты.

Анализ данных с мобильных устройств. Здесь есть такая очень интересная смешная задача, которая такой почти учебной является, когда по данным с акселерометра телефона вы должны распознать, что делает человек в момент, когда записаны такие-то данные с акселерометра. То есть, сидит, стоит, идёт, бежит, поднимается по лесенке. Соответственно, есть публичные датасеты с этой информацией уже размеченные, вы можете сами себе их скачать, потренироваться сделать свою нейронную сеть, которая будет распознавать движения. Но на самом деле это, в общем-то, наверное, скучновато. А вот работа, в которой участвовал и я с моей командой в прошедшем году, – попытка спрогнозировать возраст человека для начала. То есть, мы берём информацию с сенсоров носимого устройства и пробуем понять, сколько этому человеку лет. Первая моделька, которую мы сделали, она прогнозирует календарный возраст. Массив, который был положен в её основу, это массив, который называется NHANES. Это публичный массив NHANES штатовский, большой-большой массив состояния здоровья людей, и среди прочего там есть 10 тысяч человек, для каждого из которых есть 10 080 семплов с акселерометра телефона с частотой в одну минуту. То есть, там интегрируется общая сумма активности за минуту, и вот это один минутный семпл. То есть, вы берёте 10 080 семплов по человеку и пробуете предсказать его календарный возраст. Оказывается, что вообще коэффициент корреляции пирсоновской между прогнозом модели и реальным календарным возрастом, он больше чем 0,8, там где-то 0,82.

При этом интересно то, что тот возраст, который прогнозирует модель, это на самом деле календарный возраст, а не биологический – это было таким маленьким разочарованием. Думали, что может быть на халяву получится спрогнозировать вероятность смерти на самом деле. То есть, взять через этот возраст, через кривую Гомпертца пересчитать вероятность смерти и, опа-опа, у нас есть уже готовый диагностический инструмент. Но нет. По всей видимости, здесь проблема заключается в том, что у нас есть очень много двигательных паттернов, которые зависят именно от нашего календарного возраста. То есть, мы в школу идём, когда нам 7 лет по календарю исполняется, а не когда у нас вероятность смерти становится такой как в среднем у семилетнего человека. То же самое происходит с колледжем, с институтом, с пенсией и много с чем ещё.

То есть, наши двигательные паттерны они привязаны к нашему колебательному возрасту. Но мы не растерялись и попробовали сделать модель, которая прогнозирует именно вероятность смерти человека, потому что на самом деле в этом массиве есть информация о том, умерли/не умерли те люди, и когда они умерли. Ну, и, соответственно, как бы решив там проблему цензоринга (от англ. censoring – прим. XX2 ВЕК) так называемую, мы построили модель, которая прогнозирует вероятность смерти человека в год, следующий за датой этого семпла снятого. И у неё точность конечно более скромная, то есть, у неё там где-то в районе 0,16 пирсоновский коэффициент. Но, тем не менее, это величина-то значимая. Некоторую долю дисперсии она объясняет и, в общем-то, мы сейчас работаем с более таким детальным массивом от UK Biobank, где данные с датчиков снимаются, и уже не раз в минуту считается семпл, а с частотой 100 герц съёмка сигнала происходит. И сам по себе массив ещё гораздо больше, то есть, в нём сотни тысяч пациентов. И я думаю, что эту модель ещё получится уточнить неплохо. И, соответственно, пожалуйста, у нас в принципе будет рабочий инструмент, который в случае чего будет, по крайней мере, вам зажигать красную лампочку и советовать обратиться к врачам. То есть, при превышении там вашей вероятности смерти существенного порога по сравнению с той вероятностью, которая соответствует вашему возрасту.

Про интерфейсы немножко, несколько дополнительных слов по поводу того, что в медицинских интерфейсах можно сделать при помощи систем искусственного интеллекта. Я уже говорил о речевых интерфейсах, то есть, это распознавание и синтез речи. Вдобавок помимо того, чтобы речь распознать и синтезировать, нужно ещё понять смысл сказанного, то есть, это так называемые интонационные модели, которые услышав определённую фразу от человека, должны понять, что он имел в виду. Такого рода модели, достаточно эффективные на сегодняшний момент, созданы, по крайней мере, вот этого вот стека достаточно для того, чтобы уже строить более-менее осмысленный диалог в соответствии с определённым скриптом общения.

Распознавание изображений, биометрия. Биометрия, понятно, да, у вас естественно медицинские данные, все медицинские взаимодействия они относятся к особо защищаемым категориям обработки персональных данных, потому что медицинская информация это, конечно, тайна за семью печатями в соответствии с современным законодательством. Соответственно, биометрия для того, чтобы при удалённом взаимодействии вам определить всё-таки тот это или не тот человек, с которым вы общаетесь.

Персонализация систем. То есть, мы можем подстраивать стиль общения виртуального консультанта под каждого человека. Тут важно, что вот здесь, скорее всего, будет достаточно большой прорыв в ближайшие годы, сейчас скажу, почему. Чат-боты на сегодняшний день они уже активно входят в нашу жизнь, это инструменты текстового взаимодействия, при помощи которых мы можем целый ряд задач эффективно решать. Собственно распознавание изображений именно с точки зрения диагностики во время взаимодействия.

Я обещал сказать, почему будет прогресс в этой сфере. Дело в том, что я коротко упоминал, что крупные компании сейчас ввязались в гонку по созданию специализированных железок для обучения нейронных сетей. И на самом деле часть таких устройств уже появилась, но она пока недоступна в пользовательском сегменте. Например, компания Google создала такую железку, как Tensor Processing Unit, уже вторая версия, они пока что доступны в облачных вычислениях, но это специализированный процессор для обучения вот таких вот самых обычных нейронных сетей, которые мы используем. Как раз на основе таких железок был сделан недавно нашумевший проект AlphaZero, это наследник AlphaGo, который обыграл там и само AlphaGoи обыграл сильнейшую в мире шахматную программу Stockfish и сильнейшую в мире программу Сёги – это японские шахматы. Во многом успех этого проекта он был основан на том, что было использовано специализированное очень быстрое железо. То есть, одна такая плата TPU 2.0 это 280 терафлопов производительности. И, конечно, это чудовищная вычислительная мощь, ещё и гораздо более энергоэффективная, чем то, что мы до сих пор использовали.

Такие проекты есть и у других компаний. Например, компания Intel расформировала свою самую козырную команду, которая называется Core Team, которая создавала в своё время архитектуру процессора Core 2 Duo, и на её основе создала две команды по созданию специализированных чипов для нейронных сетей. Один из этих проектов называется Nervana, и, скорее всего, мы должны уже скоро увидеть плоды их труда. Плюс к этому это IBM со своим TrueNorth, плюс к этому просочилась информация о том, что соответствующие работы есть в союзе Facebook и компании AMD, правда официально они не подтверждены, но вот утечка была опубликована в CNBC, то есть, такой более-менее надёжный источник информации.

В общем-то, идёт большая гонка, и это значит, что через несколько лет у нас в пользовательском сегменте на всех домашних устройствах портативных и мобильных появится специализированное железо для нейронных сетей, которое позволит не только их вычислять, потому что обученную нейронную сеть вы можете в принципе быстро вычислять как бы и на современном мобильном телефоне, если она, конечно, не какого-то запредельного размера. Но вы сможете и обучать нейронные сети прямо на пользовательском устройстве. А это означает, что вы сможете решать целый ряд интеллектуальных задач на стороне клиента. И в этом смысле одно из очевидных направлений это персонализация. Персонализация в том плане, что это система, которая будет учиться наиболее эффективно взаимодействовать именно с вами, будет хорошо понимать ваши намёки, ваш голос, ваши жесты, ваши движения лица и так далее и так далее. Но это один из таких очевидных by-product того, что такого рода железки появятся.

Теперь спасибо за внимание. Две ссылочки: вот это ссылка на мой сайт, на котором есть, во-первых, всякие записи видео разных моих лекций, во-вторых, по этой лекции там есть источники, то есть, там ссылочки, куда можно пойти и почитать поподробнее о том, о чём я рассказывал, ну, и много всякой забавной ерунды и мои контакты, которые можно использовать для того, чтобы со мной связаться и мне задать любой вопрос, на который я постараюсь ответить. Вот, это первая ссылочка. Все сфотографировали, кто хотел? И вот вторая – это анкета Научной среды, которую мы просим вас заполнить, потому что нам интересно кое-что.

Портал «Вечная молодость» http://vechnayamolodost.ru



Читать статьи по темам:

медицина компьютеры внедрение высоких технологий Версия для печати
Ошибка в тексте?
Выдели ее и нажми ctrl + enter
назад

Читать также:

Медицинская информатика

Специалист по Computer Science Алексей Незнанов о разделах медицинской информатики, носимой электронике и будущем медицинских услуг.

читать

Трёхмерная компьютерная томография

Технология дополненной реальности позволяет врачам изучать внутреннее строение пациентов в интерактивной трёхмерной среде.

читать

Казанские робопациенты в токийском университете

В рамках партнерства с японским научно-исследовательским центром RIKEN казанская компания «Эйдос-Медицина» откроет симуляционный центр, в котором установлено семь роботов-симуляторов по лапароскопическим, эндоваскулярным, гистероскопическим и эндоурологическим вмешательствам.

читать

Биоинформатика для биомедицины

На факультете естественных наук Новосибирского государственного университета открывается лаборатория структурной биоинформатики и молекулярного моделирования.

читать

Рободоктор – почти как настоящий, только без рук

Пациенты петербургской клиники МЧС еще удивляются, когда на обходе вместо доктора появляется робот. Но уже общаются с ним без недоверия, «будто бы с профессором, у которого руки спрятаны в карманы».

читать