Могут ли болезни живого мозга появиться у искусственного интеллекта?

Могут ли болезни живого мозга появиться у искусственного интеллекта?

Картинку брал тут

Я сейчас постепенно изучаю тему нейросетей, ИИ и поэтому стараюсь читать статьи по работе человеческого мозга. И тут я наткнулся на интервью Академика РАН, Михаила Угрюмого. Читая интервью в голове всплыл ряд вопросов, которые хотелось бы обсудить.

Предположим, что ИИ создан. В таком случае возникает ряд вопросов:

Могут ли ИИ болеть как мозг?
Могут ли ИИ подвергаться тем же заболеваниям, которым подвергается мозг. Если предположить, что «болезни» ИИ связаны с внешним вмешательством, значит ли это, что болезни мозга связаны с таким же вмешательством? Можно ли такие вмешательства нивелировать?

Можно ли к ИИ вообще отнести понятие «болезнь»?
Можно ли к ИИ вообще отнести понятие «болезнь», как естественная реакция на внешние раздражители? В контексте первого вопроса, можно ли сравнить ИИ, к примеру с ОС компьютера ? Ведь если искусственно не придумать и внедрить в него вирус, то по логике она будет работать нормально.
Что я хочу сказать? Внешние вмешательства являются единственной причиной «болезней», либо мозг или ИИ может «заболеть» и по другим причинам? Ну например новые сложные задачи. К слову говоря, в этом смысле интересна следующая статья http://www.mental-engineering.com/2016/10/9.html, где рассказывается о том, почему мозг со временем тормозит и как этого избежать. И посему очередной вопрос. Возможно ли в ИИ внедрить функцию «наращивания связей между нейронами»? Есть ли прецеденты/примеры?

ИИ, как модель для развития мозга
У меня есть гипотеза, что ИИ должен создаваться как модель для развития мозга человека. Модель для отработки экспериментов и т.д. Ну вот сами подумайте, ИИ создается для того, чтобы обкатать на нем способность мозга к быстрому обучению. После обкатки создается методика, по которой обучается человек. То есть, сам ИИ позиционируется не как замена мозгу (как сейчас), а как инструмент для развития человеческого мозга. В данном случае, я не беру в расчет рутинные задачи, которые можно передать машинной обработке, отработке. Речь идет о развитии творческого составляющего мозга человека. То, что отвечает за развитие и рост. Об этом на днях в своем посте писал Никита Рождественский https://www.facebook.com/rozhdestvensky/posts/10207474621205895
Так вот, в этом контексте есть ряд вопросов:
1. Насколько мозг должен быть изучен, чтобы на основе такого объема данных можно было создать ИИ, достаточный для проведения таких экспериментов?
2. В чем ключевые проблемы невозможности создания ИИ прямо сейчас?
3. Достаточно ли хорошо изучены «болезни», чтобы имитировать их на ИИ и проводить эксперименты?
4. Может и не нужно детально разбираться в изучении болезней, а лишь понять причины их возникновения?

Возможно ли создание абстрактного ИИ?
У меня есть гипотеза, что ИИ невозможно создать просто как копию мозга, но как инструмент решения конкретных задач. И только создавай «модули» для решения конкретных задач, «собрать» из них в последствии комплексный ИИ. Насколько я прав? Или уже есть конкретные предпосылки к ИИ? Ведь насколько я понимаю, пока речь идет о машинном коде, который предстоит еще обучать?

Возникает еще куча вопросов морально-этического характера, но я их намерено не поднимаю в этом посте. Не хочу уводить линию мышления в сторону. Буду рад обратной связи, ссылкам, мнениям и т.д.

« Previous Post
Next Post »