Искусственный интеллект может в перспективе самостоятельно принимать решения, и совершенно необязательно, что он захочет следовать сформулированным фантастом Айзеком Азимовым законам робототехники, призванным оберегать людей. Поэтому допускать его к критически важным сферам попросту опасно, отмечает зампредседателя Совбеза России Дмитрий Медведев в статье для журнала "Эксперт".
Как отмечает политик, возможная передача ИИ управления большими производствами с использованием критических технологий "чревата глобальными рисками", гораздо большими, чем опасность хакеров. "ИИ, достигший уровня суперинтеллекта, вовсе не обязан руководствоваться тремя пресловутыми правилами робототехники Айзека Азимова, поскольку своим происхождением будет обязан не человеку, а самому себе", — указывает Медведев.
Такой сценарий, замечает он, допускают в том числе и политики, и бизнесмены. "И речь не только об опасных производствах, которые могут причинить необратимый вред человечеству и нашей планете. В разряд высокорисковых могут попасть и, казалось бы, совсем безобидные виды экономической деятельности вроде аграрных технологий и производства продуктов питания", — обращает внимание зампред СБ РФ.
Три закона робототехники — обязательных к исполнению помогающими человеку интеллектуальными механизмами принципа — были сформулированы американским фантастом Айзеком Азимовым в рассказе "Хоровод" 1942 года. Согласно им, робот не должен своими действием или бездействием причинить вред человеку, обязан выполнять все приказы человека — кроме причиняющих другим вред, — а также заботиться о своей безопасности в той мере, в которой это не противоречит двум первым принципам.