![]() |
|
#122
|
||||
|
||||
|
Любая достаточно развитая технология неотличима от магии. Артур Кларк Как "магия" в очередной раз Нейросеть читает вашу политическую ориентацию по лицу 11 января с.г. известный и престижный научный журнал «Nature» (Nature Scientific Reports ) опубликовал статью «Технология распознавания лиц может выявить политическую ориентацию по натуралистическим изображениям лица»[1] Краткие сообщения об этом опубликовали многие информационные агентства, например, ТАСС (« Систему распознавания лиц научили определять политическую ориентацию по фотографии ») цитирую: «Специалист из Стэнфордского университета разработал алгоритм распознавания лиц, который якобы может определить, либеральных или консервативных взглядов придерживается человек, всего лишь по фотографии. Статью с описанием алгоритма опубликовал научный журнал Nature.» Ниже приведены цитаты из перевода этой статьи по подробной публикации [2]. Самое интересное, что автор (М. Косинский) начинал эту работу с целью разоблачения новой-старой псевдонаучной (как он сначала полагал) френологии: «Американский исследователь создал нейросеть, которая с точностью около 70% определяет политические убеждения человека, анализируя только его лицо. Ранее он уже сделал алгоритм, устанавливающий по фотографии сексуальную ориентацию. Оба этих эксперимента провели с целью опровергнуть так называемую новую френологию, а в итоге частично подтвердили псевдонаучные гипотезы» Напомним, люди издревле пытались разработать теории, позволяющие надежно определять личностные качества человека по его заметным признакам: лицу, размеру и форме черепа или даже свойствам отдельных частей тела. Так появились псевдонауки (как считало большинство учёных) вроде физиогномики и френологии (определения характера по форме черепа). Некоторые из этих исследований развивались и получали иногда широкую поддержку, в том числе и в ХХ веке. Даже в XXI веке оставалось немало приверженцев физиогномики и френологии, утверждающих, будто глубинные свойства личности человека можно надежно считать с внешности. Подобные мировоззрения получили название «новая френология». Американский исследователь из Стэнфордского университета Майкл Косински (Michal Kosinski) решил использовать самые современные методы, чтобы в очередной раз опровергнуть вышеописанные заблуждения. Вышло наоборот. ![]() Далее цитирую по статье [2]: «Майкл разработал искусственный интеллект, который узнает по лицу человека — его политические убеждения. Результаты последнего эксперимента были опубликованы в рецензируемом журнале Nature Scientific Reports . Алгоритм проверили более чем на миллионе фотографий реальных людей из США, Канады и Великобритании. Изображения брали из социальных сетей и с сайтов знакомств, а политические убеждения оценивали по бинарной системе «либерал — консерватор». Выбирая из двух человек с разными убеждениями, Искусственный Интеллект (ИИ) оказался прав в 72% случаев. Ранжируя выборку из ста человек со случайным распределением политических пристрастий, точность алгоритма была несколько ниже — 66%. <…> На первый взгляд может показаться, что результаты алгоритма не особо впечатляющие. Но человек в аналогичной ситуации справляется существенно хуже: всего на 55%, что незначительно эффективнее подбрасывания монеты. Статистически значимые показатели работы нейросети говорят о том, что она явно определила реально существующие признаки политической ориентации в людях. Вот только узнать их пока не представляется возможным — подобные алгоритмы являются «черными ящиками». Косински предпринял несколько попыток определить хотя бы некоторые из параметров, на которые опирался ИИ. Он безрезультатно проверил множество признаков: цвет волос на лице, прямой взгляд в камеру у человека или он прячет глаза, различные эмоции. Простые, понятные и привычные людям критерии не сработали: судя по всему, нейросеть нашла что-то еще или сложный комплекс таких зацепок». Как объясняет сам Косински, лично для него такие результаты экспериментов с нейросетями оказались шоком. Трудно представить, что в XXI веке мы найдем подтверждение псевдонауке... Косинский планирует продолжить работу и попытаться установить, что именно помогает ИИ «смотреть в душу» через фотографии. В имеет смысл напомнить, что есть несколько поговорок, которые давным-давно оправданы в народном сознании: «рожей не вышел», «не лезь с суконным рылом в калашный ряд», ну наконец, известное выражение «да у него на роже всё написано»… Литература 1. Косинский Михаил. «Facial recognition technology can expose political orientation from naturalistic facial images» ( «Технология распознавания лиц может выявить политическую ориентацию по натуралистическим изображениям лица» ) \\ Nature Scientific R На eports , 11.01.2021. №100 2. Парфёнов Василий. «Нейросеть подтвердила псевдонаучную гипотезу о том, что по лицу человека можно определить качества его личности — политическую и сексуальную ориентацию» \\ Naked science.ru 15 . 01 .2021
__________________
Киберэзотерик и ведьма по жизни |
|
#123
|
||||
|
||||
|
Как говорится, не верь глазам своим!
В Китае публикацию дипфейков отнесли к уголовным преступлениям Власти Китая объявили любую публикацию заведомо ложной информации, в том числе дипфейков, уголовным преступлением. Соответствующий закон вступит в силу 1 января 2020 года. Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость. Закон приняла Администрация киберпространства Китая. Чиновники отметили, что использование дипфейк-технологий может «поставить под угрозу национальную безопасность, подорвать социальную стабильность, а также нарушить общественный порядок и ущемить законные права и интересы граждан». Стоит отметить, что в сентябре китайские разработчики выпустили приложение ZAO, которое позволяло моментально создавать дипфейк-видео с определенным человеком при помощи всего одного его портрета. ZAO стало самым популярным приложением в китайском AppStore. Изначально в пользовательском соглашении говорилось, что все права на созданный контент принадлежат разработчикам. Позднее в ZAO пообещали удалять контент со своих серверов, если пользователь удалит его у себя в смартфоне. ________________________________________________ Ну а это новости с другого берега Дипфейки спутниковых снимков повергнут мир в хаос Технологии дипфейков станут одним из основных средств борьбы в ИИ-войне будущего, уверены в США. Но речь не идет о подделке лиц политиков или новостных сводок. Намного больший потенциал воздействия у исправленных спутниковых снимков. И, похоже, в Китае это давно поняли. На протяжении последнего года технологии дипфейков — поддельных изображений или видеороликов, где политик говорит то, чего никогда не сказал бы на самом деле — прошли большой путь. Из забавы посетителей порносайтов они стали новой реальностью. Но потенциал — в том числе и потенциал ущерба — по-настоящему раскроет лишь редактирование спутниковых снимков, предупреждает Defence One. Для того, чтобы посеять хаос в масштабах всего мира, достаточно пары простых шагов. Первое: отредактируйте спутниковые фото так, чтобы на них появились несуществующие дороги или мосты. Второе: внедрите их в датасеты для обучения ИИ. «Планируя миссию, вы обучаете свои отряды идти определенным маршрутом к мосту, но его там нет. Вас ждет большой сюрприз», — описывает сценарий Тодд Майерс, представитель американского Агентства спутниковой разведки. Такие возможности дают генеративные состязательные нейросети (generative adversarial network, GAN). И, как подчеркивает Майерс, «ни для кого ни секрет», что в этой области Китай намного опережает США. По его мнению, военные там уже давно оценили потенциал технологии. GAN может как рисовать на картах новые объекты, так и скрывать от ИИ существующие, внося незаметные для человеческого глаза изменения. Алгоритм GAN состоит из двух частей. Первая часть — генератор — учится создавать изображения, которые распознает вторая часть алгоритма, арбитр. Когда арбитр начинает путать сгененрированные изображения и реальные фотоснимки, сеть считается рабочей. _______________________ Ну и на закуску... Поучительная история про китайских производителей микросхем или Сказ о том как Поднебесная пытается догнать и перегнать Америку!
__________________
Киберэзотерик и ведьма по жизни |
|
#124
|
||||
|
||||
|
Китайские владельцы Tesla начали устанавливать видеорегистраторы для педали тормоза
Владельцы электромобилей Tesla в Китае начали устанавливать видеорегистраторы, направленные на педаль тормоза. Это мера перестраховки — в последнее время участились случаи ДТП с Теслами, в которых водители обвиняют систему автопилотирования, а производитель открещивается и переводит стрелки на автомобилистов. У Tesla в КНР в последнее время проблемы. Начались они с обвинений в шпионаже, затем много шума наделала скандальная акция, устроенная владелицей электромобиля Model 3 Чжан Ячжоу во время автосалона в Шанхае: она забралась на крышу машины в футболке с надписью «Неисправные тормоза». По ее словам, из-за бага в системе электромобиль чуть не угробил четырех членов ее семьи, но Тесла отрицает все обвинения. Сначала представители компании сообщили, что они не собираются идти на компромисс, пока требования женщины не доказаны документами. Спустя некоторое время Tesla все же принесла извинения, но компенсировать стоимость разбитого электромобиля отказалась. Под гнетом общественности и китайских СМИ Tesla даже решилась на беспрецедентный для себя шаг: она предоставила одному из местных изданий детализированный лог со всеми действиями водителя. Судя по файлу, педаль тормоза действительно нажималась перед столкновениями, но якобы с недостаточной силой. В связи с происходящим владельцы американских электромобилей начали устанавливать видеокамеры, направленные на педальный узел. По их словам, если они попадут в аварию, то опубликуют видео, чтобы доказать свою невиновность, пишет InsideEVs. Подобная деятельность является признаком того, что клиенты не доверяют Tesla как источнику информации об авариях с участием ее собственных автомобилей. Если имидж компании будет существенно подпорчен, то план по стремительному росту продаж на китайском рынке может быть сорван, а основная часть продукции нового завода Tesla в Шанхае отправится на экспорт. Скрытый текст - Примеры установки: Скрытый текст - Протест Чжан Ячжоу: Скрытый текст - Лог-файл с действиями водителя перед столкновением:
__________________
Киберэзотерик и ведьма по жизни |
|
#125
|
||||
|
||||
|
Язык, созданный искусственным интеллектом, начинает портить научную литературу
Исследователи из России и Франции опубликовали любопытное исследование. Оно показывает, что использование современных текстовых генераторов, управляемых ИИ (например, GPT-3), приводит к уродованию языка, «воровству» изображений и цитированию несуществующей литературы в новых научных публикациях. Наибольшее беспокойство вызывает тот факт, что подобные публикации позиционируются как результат объективных и систематических исследований, но при этом содержат некорректный с научной точки зрения или просто непонятный контент. Доклад, который называется «Сомнительный стиль письма, возникающий в науке», был подготовлен исследователем из Яндекса Александром Магазиновым и группой сотрудников отдела компьютерных наук Тулузского университета. Особое внимание авторы уделили росту бессмысленных научных публикаций, созданных искусственным интеллектом, в принадлежащем Elsevier журналу Microprocessors and Microsystems. Максимальная синонимизация Модели авторегрессионного языка наподобие GPT-3 обучаются на больших объёмах данных и предназначены для перефразирования, обобщения, сопоставления и интерпретации этих данных в связные генеративные языковые модели, которые способны воспроизводить естественную речь и шаблоны письма. Эти модели всегда ищут синонимы — даже для устоявшихся словосочетаний. Неудивительно, что научные материалы, созданные с помощью такого ИИ, содержат невероятное количество примеров неудачного использования синонимов для привычных нам фраз. Вот самые яркие примеры:
Скрытый текст - Ещё примеры: Скрытый текст - Выдача по запросу "deep neural network": Исследователи изучили данные за период с февраля 2018 года по июнь 2021 года и отметили резкий рост количества заявок за последние два года, особенно за последние 6-8 месяцев: Скрытый текст - Корреляция или причинно-следственная связь? Увеличение количества публикаций в журнале Microprocessors and Microsystems, похоже, совпадает с ростом количества «бессмысленных» текстов серьёзных научных материалах.: Полный набор данных, собранный авторами исследования, содержит 1078 статей, полученных по подписке Тулузского университета на журнал Elsevier. Частота «загрязненных» материалов в журнале Elsevier составляет (72,1%), что очень много, если провести сравнение с другими изученными научными журналами (максимум 13,6%). Китайские научные статьи рецензируются поверхностно В документе отмечается, что период времени, отведенный для редакционной оценки присланных материалов, в 2021 году радикально сокращается и составляет менее 40 дней. Это в шесть раз меньше стандартного времени для рецензирования. Наибольшее количество странных статей поступает от авторов из Китая. Среди 404 статей, одобренных менее чем за 30 дней, 97,5% относятся к Китаю. А на долю материалов, которые редакция проверяла материалы дольше 40 дней (615 статей), приходится лишь 9,5% заявок из Китая. Разница почти в 10 раз! По мнению авторов доклада, распространение странных научных материалов объясняется недостатками редакционного процесса и возможной нехваткой ресурсов в связи с растущим числом заявок. Исследователи выдвинули гипотезу о том, что генеративные модели наподобие GPT использовались для создания большей части текста в статьях. Однако доказать эту гипотезу сложно. Главный аргумент заключается в противоречащем здравому смыслу способу использования синонимов и нарушенности логики. Есть и ещё одна закономерность: модели генеративного языка, которые вносят свой вклад в поток научной бессмыслицы, способны не только создавать проблемные тексты, но также распознавать их и систематически цитировать. То есть ссылаться на другие работы, как это делают люди. Исследователи смогли воссоздать такое решение с использованием GPT-2 и разработать структуру для выявления проблемных научных работ. Не только семантика Исследователи установили, что многие из изученных научных журналов не только используют неправильный язык, но и содержат некорректные с научной точки зрения утверждения. Это косвенно подтверждает подозрения, что генеративные языковые модели используются для формулировки некоторых основных теорем и данных в статье. Исследователи также считают, что в некоторых случаях используется «ресинтез», то есть переделка случайно выбранной (и качественной) работы, опубликованной ранее. Это делается для того, чтобы справиться с давлением научного тренда «публикуй или погибни» и, возможно, с целью улучшить национальные рейтинги за глобальное превосходство в исследованиях ИИ, за счёт чистого объёма публикуемых материалов. Скрытый текст - Пример:: Анализируя несколько статей из Elsevier, исследователи обнаружили предложения, которые не имели смысла; ссылки на несуществующую литературу; ссылки на переменные и теоремы в формулах, которые на самом деле не появлялись во вспомогательном материале, а также повторное использование изображений без указания их источников. Это плохо и с точки зрения авторских прав, но по сути отражает недостаточный уровень редакторской проверки. Ошибки цитирования Цитаты, предназначенные для поддержки аргументов в научной статье, были обнаружены во многих помеченных примерах как «либо неработающие, либо приводящие к несвязанным публикациям». Кроме того, ссылки на «родственные работы», по-видимому, часто включают авторов, которых, по мнению исследователей, «тоже были созданы с помощью GPT. Потеря сути Ещё одним недостатком современных языковых моделей является их тенденция терять фокус во время долгой беседы. Исследователи обнаружили, что некоторые статьи часто поднимают в начале статьи тему, к которой не возвращаются позднее. Они также предполагают, что некоторые из найденных странных статей получились в результате многократного прогона исходного текста через автоматические переводчики, что очень сильно исказило текст. Исследователи призывают к более внимательному отношению к редакционной работе и совершенствованию стандартов в области академических публикаций на тему ИИ. Злая ирония в том, что отрасль, занимающаяся изучением ИИ, страдает от последствий злоупотреблении машинного обучения. По мнению авторов, распространение синтетических текстов всерьёз угрожает целостности научной литературы. Habr (перевод) Автор оригинала: Martin Anderson
__________________
Киберэзотерик и ведьма по жизни Последний раз редактировалось Ракса; 05.08.2021 в 06:31. |
|
#126
|
||||
|
||||
|
Сограждане, россияне, возрадуемся же!
Ну если не все поголовно, то хотя бы некоторые... Чиновников и преподавателей принудят перейти на российские мессенджеры Правительство Российской Федерации рассматривает возможность принудительного перевода всех госслужащих и сотрудников бюджетных организаций на отечественные средства обмена информацией. Как сообщает газета «Коммерсантъ», речь идёт о российских мессенджерах, сервисах электронной почты и системах видеоконференцсвязи (ВКС). Уже в следующем году инициатива может быть распространена на преподавателей школ и высших учебных заведений. Учителя будут общаться при помощи таких инструментов с родителями, школьниками и студентами. «Концепция предполагает развитие сервисов для оперативного обмена данными между ведомствами, в том числе во время удалённой работы: электронной почты, мессенджеров, аудио- и видеоконференцсвязи, электронного документооборота, управления задачами, поручениями и проектами, а также ряда других цифровых сервисов российской разработки», — говорится в публикации. Предполагается, что преподавателей и чиновников переведут на уже имеющиеся программные решения. Правда, названия мессенджеров и сервисов, которые будут обязательны к использованию, пока не раскрываются. Участники рынка говорят, что реализовать инициативу на практике будет достаточно сложно. Однако данный проект необходим в свете снижения зависимости от иностранных продуктов. Дополнение. Минцифры России прокомментировало изложенные требования. Ведомство обратило внимание, что все они касаются исключительно рабочего взаимодействия чиновников и работников бюджетных организаций. Требования связаны с тем, что в коммуникациях государственных служащих происходит обмен чувствительной информацией, содержащей конфиденциальные сведения и персональные данные граждан. «Для корпоративных лицензий существуют значительные санкционные риски запрета на поставку в организации госсектора зарубежных программных продуктов, как это было с сервисами Zoom или отказом Microsoft продлить использование своих лицензий МГТУ им. Баумана. В связи с этим принято решение о реализации в качестве альтернативы используемым решениям единой коммуникационной платформы, сервисы которой будут бесплатно доступны государственным организациям», — говорится в комментарии. При этом министерство обращает внимание, что на рынке уже существует несколько российских корпоративных решений для поддержки рабочего взаимодействия соответствующего уровня. Поэтому разрабатывать новую платформу с нуля не предполагается.
__________________
Киберэзотерик и ведьма по жизни |
|
#128
|
||||
|
||||
|
Вопрос не в том, пользуются, или не пользуются, а в том, насколько легко будет заблокировать сабж, или вытащить из него логи. В принципе, любой мессенджер, вне зависимости от используемого протокола, сервера которого расположены на территории ЕС, РФ, или США, обречён по-умолчанию. Поэтому данный вброс представляет из себя не более, чем информационный шум.
|