a_l_harrison: (percy jackson)
[personal profile] a_l_harrison
Уже не помню, говорила ли об этом, но в прошлом месяце с удовольствием посмотрела выступление Тома Скотта There is No Algorithm for Truth, в котором он рассуждает о том, почему мы вряд ли сможем когда-либо создать ИИ, который бы безошибочно различал возражения и оскорбления, дезинформацию и правду и далее по списку. Собственно, проблемы он обозначает традиционные (субъективность обучающих, неразличимость травли и бурного возмущения, тяжесть перемещения по градиенту свободы слова), просто его приятно слушать.


Однако вчера я прочла пост на Хабре от команды "Яндекса", и мне показалось, что Скотт излишне пессимистичен. Элемент субъективности всегда был, есть и будет в межчеловеческом общении, потому что, ну, мы люди, мы не можем иначе (да и не хотим, в сущности), но вот относительно того, что машина не может отличить травлю и заслуженное возмущение или просто стёб... По всей видимости, мы к этому потихоньку движемся. Да, мы пока ещё далеко, но машинное обучение не стоит на месте. Для меня уже вот эти вот способы определить спамеров, даже если они видоизменяют текст, разделять приемлемый (в т.ч. опечаточный) мат и оскорбительный, учитывать контекст — это уже огромные подвижки в нужном направлении (тем более что автор указывает: "Здесь, как и при борьбе со спамом, у нас нет цели искоренить саму возможность написать что-нибудь нецензурное, наша задача — сделать так, чтобы игра не стоила свеч"). Конечно, это всё можно использовать и в разрушительных целях, но это тоже удел человечества: если мы не можем поставить это изобретение на службу разрушению, оно нам не нужно. Так что всё-таки меня подобные шажки больше радуют, чем пугают. И вообще складывается впечатление, что мы на расстоянии какого-то одного открытого фундаментального закона от грандиозного скачка в машинном обучении, и я очень хочу застать момент, когда его, наконец-то, выведут.