Команда ученых-разработчиков закончила создание специальной технологии, не дающей роботам под управлением искусственного интеллекта (ИИ) выходить из-под человеческого контроля.
Так, группа ученых из Федеральной Политехнической школы Лозанны (EPFL, Швейцария) разработала новый способ прерывания работы ИИ так, чтобы тот не пытался его обойти.
Ранее дилемма состояла в том, что в базовые алгоритмы обучения любого ИИ внесена задача «поиска способов обойти препятствия» - это ключевая функция в обучении, и избавиться от нее нельзя.
Суть в том, что вмешательство человека для корректировки кода, или чистки памяти ИИ от вредоносной информации, сама программа считает помехой, и хотя сейчас машины не могут «запереть» вход в свой код окончательно, именно это может сыграть зловещую роль в будущем.
На данный момент есть множество методик по обучению ИИ, но все они несовершенны, тем более, если робот в процессе обучения наблюдает или содействует с людьми.
Например, регулярны случаи, когда чат-боты, призванные обучаться у людей, начинают выдавать человеконенавистнические фразы. Понятно, что такие вещи нужно чистить из памяти ИИ, и искать, в чем была ошибка при составлении кода.
Беда в том, что ранее это прерывало процесс обучения и вызывало «недовольство» ИИ, стимулируя его начинать новое обучение с попыток обхода старого способа проникновения в свой код. Новый же алгоритм разработан таким образом, чтобы ИИ считал его не как помеху, которую необходимо преодолеть в процессе обучения, а как часть самого обучения, предоставляя человеку свободный доступ к памяти для очистки той от нежелательной или вредоносной информации.
Такая разработка обещает уменьшить время на обучения контактирующих с людьми или информационным полем роботов, что приближает нас на еще один шаг к глобальной роботизации все большего количества отраслей.