Европарламент принял закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта. Документ призван обеспечить безопасность, прозрачность, экологичность и этичность использования ИИ в Европе. Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, который он может создавать. Системы ИИ с неприемлемым уровнем риска для безопасности людей будут строго запрещены. В эту группу войдут, например, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (классификация людей на основе их поведения, социально-экономического статуса, личных характеристик). Парламент также уточнил список практик, запрещённых для искусственного интеллекта. В него вошли: • удалённая биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения; • биометрическая категоризация с использованием чувствительных характеристик (например, пол, раса, этническая принадлежность, гражданство, религия, политическая позиция); • прогностические полицейские системы (основанные на профилировании, местоположении или прошлом криминальном поведении); • распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях; • неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни). Закон уточняет список ИИ-систем «высокого риска». В соответствии с документом, это системы, которые могут потенциально причинить вред здоровью людей или окружающей среде. Сюда также входят системы искусственного интеллекта, которые используются для влияния на избирателей в политических кампаниях и алгоритмы рекомендаций соцсетей. Поставщики и разработчики «высокорискового» ИИ обязаны, в соответствии с законом, провести оценку риска и соответствия, зарегистрировать свои системы в европейской базе данных ИИ, обеспечить высокое качество данных, которые используются для обучения ИИ, обеспечить прозрачность системы и информированность пользователей, а также обязательный надзор со стороны человека и возможность вмешательства в работу системы. Что касается «низкорискового» ИИ, такого как чат-боты, то его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется ещё одно требование — сообщать пользователям, что контент создан нейросетью. 13.05.2023 https://habr.com/ru/news/734794/
Соцсети можно уже запрещать сразу же. Гугл туда же. Вообще на самом деле все сайты с рекламным идентификатором получается запрещены. Можно заюзать сею уязвимость