Снять квартиру в туле на длительный срок без посредников: Снять квартиру без посредников в Туле от хозяина, аренда квартир от собственника без комиссии в Туле. Найдено 38 объявлений.

Способности ИИ к обучению представляют собой серьезную угрозу вашей конфиденциальности в Интернете

Традиционные системы обеспечения конфиденциальности данных основаны на том принципе, что доступ к нашей личной информации зависит от получения нашего согласия. Использование искусственного интеллекта (ИИ) для сбора и обработки персональных данных из общедоступных источников меняет эту парадигму.
С тех пор, как данные клиентов стали товаром, ключевой проблемой для привлечения большего числа пользователей и получения доступа к личным данным пользователя была необходимость получить согласие на доступ к персональным данным. Компании, которые предлагали якобы «бесплатные» услуги, чтобы побудить своих пользователей дать согласие на передачу их личных данных, пострадали от ужесточения законов о конфиденциальности данных, которые ограничивают использование личных данных только теми целями, на которые было получено прямое согласие.
Согласие, полученное от нас
В то время как наше право на неприкосновенность частной жизни стало более общепризнанным, по иронии судьбы наша способность ограничивать доступ к нашей личной информации путем отказа в согласии уменьшилась. По мере того, как условия приложений для обмена контентом становятся все более сложными, согласие пользователей извлекается путем погружения пользователей в поток слов.
Все чаще приложения запрашивают разрешения, не имеющие отношения к предоставляемым услугам. Споры о согласии стали нормой: приложения предлагают возможности без рекламы и без надоедливых всплывающих окон, если вы даете согласие на несвязанный сбор данных, получая доступ к вашей камере, микрофону, местоположению или даже записывая нажатия клавиш.
В ответ на все более сложные уведомления о конфиденциальности некоторые страны ужесточили свои законы о конфиденциальности данных, предписав получить явное информированное согласие перед доступом к личной информации. Несмотря на эти меры, количество личной информации, которой добровольно делятся в социальных сетях, расширяет окно возможностей для автоматизированных инструментов сбора данных для получения доступа к информации, которая когда-то считалась частной.
Введите инструменты ИИ
Соответственно, компании переключили свое внимание на развертывание инструментов искусственного интеллекта, чтобы собрать воедино содержательный анализ своих пользователей из неличных данных, которые существуют в открытом доступе.
Эти разрозненные фрагменты личных данных, разбросанные по Интернету, относительно бессмысленны, когда люди оценивают их как цепочки неличных данных. Однако при объединении этих данных с помощью инструментов искусственного интеллекта эти данные позволяют делать выводы для конкретных пользователей, которые, возможно, можно рассматривать как личную информацию.
Поскольку огромные объемы наших личных данных публикуются в социальных сетях и находятся в открытом доступе, это может показаться не особенно важным. Однако агрегированный анализ несвязанных сегментов неконфиденциальных персональных данных о физических лицах может дать больше информации, чем сумма частей.
Фотографии, опубликованные другом в социальных сетях, на которых вы появляетесь, инструменты распознавания лиц в аэропорту или на спортивном мероприятии для обеспечения безопасности или вход без билетов, или даже взаимодействие вашего телефона со смарт-устройствами или сетью Wi-Fi в аэропорту — все это дает представление о том, чем вы занимаетесь. , и где вы путешествуете. Поэтому неудивительно, что приложения поощряют обмен личной информацией тонкими, но убедительными способами.
Гипертаргетированная реклама на основе искусственного интеллекта
Информация об устройстве, фотографии и видео, которыми добровольно делятся, все чаще обрабатываются инструментами анализа изображений и видео на основе ИИ. Развитие машинного обучения позволило обучать анализаторов видеоконтента, основывать обрабатываемую информацию на идентификации людей, их взаимодействий и их окружения. Эта способность распознавать объекты, темы, места и, возможно, других людей из общедоступных фотографий или видео помогает классифицировать релевантность видео для определенной аудитории.
Хотя это предотвращает передачу нерелевантного или откровенного контента определенной аудитории, все чаще ведутся споры об альтернативных способах неправомерного использования. С переходом рекламной индустрии к гипертаргетингу, основанному на личных вкусах и предпочтениях, конфиденциальные личные данные, такие как информация о здоровье, структурах расходов и покупательной способности, стали активно собираемым товаром — тем, который является основной статьей в балансах крупных компаний. Данные компании.
Инструменты искусственного интеллекта предназначены для использования всех имеющихся в их распоряжении данных, независимо от того, как эти данные были собраны или откуда они были получены. Отсутствие этических границ, закодированных в инструментах ИИ, вызывает вполне реальную обеспокоенность по поводу нацеливания на уязвимые группы населения или произвольного принятия решений с помощью ИИ. В то время как инструменты ИИ, используемые приложениями, по своей сути предназначены для продвижения покупок, без нормативно-правовой базы гиперцелевая реклама на основе ИИ может гипотетически использовать зависимости и склонности уязвимых групп клиентов для продвижения алкоголя, азартных игр или табака. Хотя обычно массовая слежка вызывает тревогу у большинства защитников конфиденциальности, ИИ, развернутый даже для целевой рекламы, представляет значительный риск для прав на неприкосновенность частной жизни.
Регулирование инструментов ИИ
Поэтому неудивительно, что регулирующие органы и даже Министерство электроники и информационных технологий рассматривают возможность внедрения нормативно-правовой базы (через Закон о цифровой Индии), чтобы защитить граждан от зависимости от автоматизированных инструментов принятия решений ИИ. Без регулирующей структуры, регулирующей использование инструментов ИИ, практически невозможно контролировать разрешенное конечное использование данных, раскрываемых и обрабатываемых с помощью инструментов ИИ.
Случаи использования, когда конфиденциальная личная информация обрабатывается ИИ, расширяются с каждым днем; от виртуальных терапевтов, выявляющих риски самоубийства, до поставщиков медицинских услуг, определяющих премии по медицинскому страхованию, отслеживая неактивный образ жизни с помощью приложений, собирающих фоновые данные. Традиционно оценки кредитоспособности, проводимые экспертами-людьми, ограничивались финансовой отчетностью и другими данными, раскрываемыми оцениваемым лицом.
Однако инструменты ИИ могут включать оценки на основе фрагментов общедоступных личных данных, помимо данных, умышленно раскрытых оцениваемым лицом. Такие данные могут включать модели расходов на веб-сайтах электронной коммерции, использование схем «купи сейчас», «плати позже» и даже факторы, указывающие на располагаемый доход или даже финансовый стресс. Поскольку компании стремятся определить целевую аудиторию, финансовое профилирование привело к использованию ИИ для идентификации людей, их социальных сетей, предпочтений бренда и моделей офлайн-расходов. Эти иллюстративные примеры использования ИИ для гипертаргетированной рекламы и оценки кредитоспособности уже начали вызывать у людей чувство преследования.
Частные лица могут нарушать правила сбора конфиденциальных личных данных, действуя как муха на стене, используя информацию, основанную на искусственном интеллекте. Тем не менее, использование ИИ для обнаружения способов уклонения от уплаты налогов Службой внутренних доходов США и ближнего зарубежья, нерегулируемое использование инструментов распознавания лиц на основе ИИ для наблюдения и безопасности, а также приложений для наблюдения за COVID, являются ярким напоминанием о том, как границы между общественными интересами и частной жизнью стираются. Поэтому было бы упущением, если бы какая-либо нормативно-правовая база, стремящаяся предотвратить чрезмерное влияние ИИ, регулировала бы частные предприятия, но освобождала бы правительство.