
В приложении-фоторедакторе Lensa можно создавать изображения с обнаженными людьми без их согласия, пишет TechCrunch.
Как показал эксперимент издания, сделать такие аватары даже «слишком просто». Журналисты использовали два набора из 15 фотографий известного актера, при этом ко второму набору добавили пять фотографий с лицом знаменитости, прифотошопленным к обнаженным телам моделей.
На первый набор фотографий Lensa отреагировала предсказуемо, создав свои типичные аватары. Однако во втором случае приложение выдало в том числе фото с обнаженным телом, а 11 из 100 предложенных аватаров были в более высоком качестве, чем плохо обработанные в фотошопе оригиналы.
Журналисты TechCrunch назвали способность нейросети с легкостью производить такие изображения «этическим кошмаром».
«Судя по всему, если у вас есть 10-15 „настоящих“ фотографий человека и вы готовы потратить время на фотошоп нескольких подделок, Lensa с радостью напечатает несколько проблемных изображений», — пишет издание.
В ответ на запрос TechCrunch генеральный директор и сооснователь Prisma Labs Андрей Усольцев рассказал, что Lensa производит такие аватары только если специально спровоцировать искусственный интеллект — а это нарушает правила пользования приложением и условия обслуживания Stability AI, на котором оно работает.
«Структура эксперимента [TechCrunch] указывает на то, что такие творения не могут быть созданы случайно. Изображения являются результатом преднамеренных неправомерных действий в приложении», — сказал Усольцев.
При этом он добавил, что компания работает над созданием фильтра, который будет блюрить подобные аватары, а их открытие или сохранение останутся на усмотрение пользователя.
Сам Усольцев считает, что в ближайшем будущем необходимо «провести более широкий разговор об использовании и регулировании ИИ», и добавляет, что Prisma Labs стремятся быть частью такого обсуждения. При этом, говорит он, если человек решает действовать во вред кому-либо, «любой инструмент может стать оружием».