Как показал эксперимент издания, сделать такие аватары даже «слишком просто». Журналисты использовали два набора из 15 фотографий известного актера, при этом ко второму набору добавили пять фотографий с лицом знаменитости, прифотошопленным к обнаженным телам моделей.
На первый набор фотографий Lensa отреагировала предсказуемо, создав свои типичные аватары. Однако во втором случае приложение выдало в том числе фото с обнаженным телом, а 11 из 100 предложенных аватаров были в более высоком качестве, чем плохо обработанные в фотошопе оригиналы.
Журналисты TechCrunch назвали способность нейросети с легкостью производить такие изображения «этическим кошмаром».
«Судя по всему, если у вас есть 10-15 „настоящих“ фотографий человека и вы готовы потратить время на фотошоп нескольких подделок, Lensa с радостью напечатает несколько проблемных изображений», — пишет издание.
В ответ на запрос TechCrunch генеральный директор и сооснователь Prisma Labs Андрей Усольцев рассказал, что Lensa производит такие аватары только если специально спровоцировать искусственный интеллект — а это нарушает правила пользования приложением и условия обслуживания Stability AI, на котором оно работает.
«Структура эксперимента [TechCrunch] указывает на то, что такие творения не могут быть созданы случайно. Изображения являются результатом преднамеренных неправомерных действий в приложении», — сказал Усольцев.
При этом он добавил, что компания работает над созданием фильтра, который будет блюрить подобные аватары, а их открытие или сохранение останутся на усмотрение пользователя.
Сам Усольцев считает, что в ближайшем будущем необходимо «провести более широкий разговор об использовании и регулировании ИИ», и добавляет, что Prisma Labs стремятся быть частью такого обсуждения. При этом, говорит он, если человек решает действовать во вред кому-либо, «любой инструмент может стать оружием».