Темные данные: искусственный интеллект учится определять гомосексуалистов по фото

Мы стали полагаться на системы машинного обучения во всем, от создания плейлистов до управления автомобилями, но как и любой инструмент, они могут быть использованы в опасных и неэтичных целях, причем даже случайно. Сегодняшняя иллюстрация этого факта — новая статья исследователей из Стэнфорда, которые создали систему машинного обучения, которая, по их утверждению, может сказать по нескольким фотография… гомосексуалист перед вами. Или нет.

Очевидно, это исследование удивляет и обескураживает в равной степени. Помимо того, что уязвимые группы людей в очередной раз будут подвергаться систематизированному вторжению в личную жизнь и интимные темы, все это напрямую затрагивает эгалитарное представление о том, что мы не можем (и не должны) судить о человеке по его внешности, а также не имеем права угадывать сексуальную ориентацию по одному или двум снимкам. Абсурд? Точность системы, о которой сообщается в работе, между тем, не оставляет места для сомнений: теперь это не только возможно, но и сделано.

Система улавливает эманации куда более тонкие, чем способны воспрнимать люди — видит подсказки, о которых вы даже не догадываетесь. И она демонстрирует, как и задумывалось, что частная неприкосновенность, личная жизнь в эпоху повсеместного компьютерного зрения может быть попросту уничтожена.

Прежде чем перейти к обсуждению самой системы, нужно прояснить, что исследование проводилось с благими намерениями. Вопросам, конечно, не счесть числа. Наиболее актуальными, возможно, стали замечания Михала Косински и Илун Вонг относительно того, почему работа вообще увидела свет:

«Мы были очень обеспокоены этими результатами и потратили много времени на то, чтобы вообще их обнародовать. Мы не хотели подвергать людей тем рискам, о которых сами предупреждали. Способность контролировать, когда и кому раскрыть свою сексуальную ориентацию, имеет решающее значение не только для благополучия человека, но и для его безопасности».

«Мы полагали, что законодатели и сообщества ЛГБТК должны быть осведомлены о рисках, с которыми сталкиваются. Мы не создавали инструмент вмешательства в личную жизнь, скорее показали, что простые и широко используемые методы представляют серьезную угрозу личной жизни».

Определенно, это всего лишь одна из многих систематизированных попыток извлечь секретную информацию, такую как сексуальность, эмоциональное состояние или медицинские показатели. Но в этом случае все серьезнее, по нескольким причинам.

Видеть то, что нельзя (и не нужно)

В статье, опубликованной в Journal of Personality and Social Psychology, подробно описан вполне обычный подход, основанный на обучении с подкреплением, задача которого определение возможности идентифицировать людей как гомосексуалистов или нет по их лицам. Примечание: работа все еще в форме черновика.

Используя базу данных со снимками лиц (которые были взяты с сайтов знакомств с открытыми данными), ученые собрали 35 326 снимков 14 776 людей, среди которых в равной степени были представлены гомосексуальные мужчины и женщины. Их черты лица были извлечены и рассчитаны: от формы носа и бровей до растительности на лице и выражения лица.

Нейросеть глубокого обучения скушала все эти черты, подмечая, какие обычно ассоциируются с определенной сексуальной ориентацией. Ученые не «засеивали» ее предубеждениями о том, как обычно выглядят люди с обычной или гомосексуальной ориентацией; система просто распределила черты и соотнесла их с половыми предпочтениями.

К этим паттернам можно обратиться, чтобы позволить компьютеру угадать половые предпочтения человека — и оказалось, что система ИИ значительно лучше справляется с этой задачей, чем люди. Алгоритм смог верно определить ориентацию 91% показанных ему мужчин и 83% женщин, по паре за раз. Люди, которым предоставили те же снимки, были правы в 61% и 54% случаев, соответственно — то есть, подбрасывание монетки выдало бы такой же результат.

Читать дальше на Hi-News

Добавить комментарий