DeepMind исследует внутреннюю работу ИИ

DeepMind explores inner workings of AI

Как и человеческий мозг, нейронные сети, что мощность системы искусственного интеллекта не легко понять.

DeepMind, алфавит, принадлежащего А. И. фирма известная для обучения системы ИИ, чтобы играть, пытается понять, как такие системы принятия решений.

Зная, как работает ИИ, она надеется построить умнее системы.

Но исследователи признали, что чем сложнее система, тем труднее это может быть для людей, чтобы понять.

Тот факт, что программисты, строить системы ИИ не совсем понимаю, зачем алгоритмов, что сила его принять решения, которые делают они, является одной из самых больших проблем с технологией.

Это делает некоторые осторожны и ведет других к выводу, что это может привести к из-под контроля машин.

Сложным и нелогичным

Как и человеческий мозг, нейронные сети опираются на слои из тысяч или миллионов крошечных связей между нейронами, кластеры математических вычислений, которые действуют таким же образом, как нейроны в мозге.

Эти отдельные нейроны объединяются в сложные и часто контр-интуитивные способы для решения широкого круга сложных задач.

«Эта сложность нейронных сетей гранты, их власть, но и зарабатывает их репутацию запутанной и непрозрачной черные ящики», — пишут исследователи в своей статье.

По данным исследования, нейронная сеть, предназначенная для распознавания картинки кошек будет иметь два разных классификаций нейронов, работающих в ней — интерпретируемые нейроны, которые реагируют на изображения кошек и запутанной нейронов, где непонятно, что они реагируют на.

Для оценки относительной важности этих двух типов нейронов, исследователи удалили некоторые, чтобы увидеть, какой эффект это окажет на производительность сети.

Они обнаружили, что нейроны, которые имели явное предпочтение для изображения кошек за цены любого другого животного, играют такой большой роли в процессе обучения как тех, кто четко реагирует только на изображения кошек.

Также Они обнаружили, что сети, построенные на нейроны, которые обобщают, а не просто вспоминая образы, которые они были ранее показаны, являются более надежными.

«Понимание того, как сети перемен… поможет нам построить новые сети, которые запоминают все меньше и обобщить больше», — говорят исследователи в своем блоге.

«Мы надеемся, чтобы лучше понять внутреннюю работу нейронных сетей, критически и, использовать это понимание для построения более умные и общей системы», — заключили они.

Тем не менее, они признали, что люди могут по-прежнему не совсем понимаю ИИ.

DeepMind научный сотрудник Ари Моркос заявил Би-би-си: «поскольку системы становятся все более продвинутые, мы обязательно должны разработать новые методы, чтобы понять их.»