Tatiana123022
Мастер
- Сообщения
- 1,759
- Спасибо
- 1,655
- Город
- Москва
Интерес к искусственному интеллекту резко вырос среди людей старше 55 лет, об этом свидетельствуют результаты исследования «МегаФона». За прошедшие девять месяцев количество таких пользователей увеличилось в 4 раза по сравнению с аналогичным периодом предыдущего года. Общее число пользователей, которые применяют ИИ в быту или работе, с января по сентябрь выросло на 110%. Особенно активно старшее поколение осваивает нейросети в регионах.Почему лучшие нейросети не могут решить детские задачки?
Коллектив исследователей из МФТИ и Института проблем передачи информации им. А. А. Харкевича (ИППИ РАН) разработал математическую модель, описывающую, как системы искусственного интеллекта влияют на собственное будущее, обучаясь на данных, которые сами же и породили. Учёные создали теоретический каркас, объясняющий природу «цифровых эхо-камер» и механизм, из-за которого умные алгоритмы со временем могут терять адекватность или усиливать социальные предрассудки.
Сегодня алгоритмы машинного обучения управляют колоссальными потоками информации: они рекомендуют товары, одобряют кредиты, формируют новостные ленты и даже помогают полиции предсказывать районы совершения преступлений. Однако широкое внедрение таких систем породило неочевидную проблему: алгоритмы начинают менять ту самую среду, которую они призваны анализировать. Когда банк отказывает в кредите на основе прогноза модели, это решение меняет статистику выдачи займов. Когда рекомендательная система предлагает пользователю определенный контент, она формирует его будущие предпочтения.
В результате новые данные, на которых система будет переобучаться, становятся искаженным отражением ее прошлых предсказаний. Возникает скрытая петля обратной связи, эффект которой до сих пор описывался в основном эмпирически, но не имел строгого математического обоснования…
Нет. Это приговор обучению только на своих предсказаниях. Но если добавлять другие "хорошие, проверенные" данные и заставлять модель правильно работать на них, то качество не падает.В целом, это смахивает на приговор ИИ.
Качество не падает но растет стоимость поиска хороших проверенных данных.Но если добавлять другие "хорошие, проверенные" данные и заставлять модель правильно работать на них, то качество не падает.
Берём небольшую случайную выборку из данных и сами в ручную проверяем. Если качество менее 90% то выкидываем весь набор.Кто их будет проверять и как?)
Это фора быстро пропадает, каждый день что-то новое происходит и нужно это учитывать. Получается и первым, и последним моделям надо будет откуда-то получать качественные данные, с описанием что произошло сегодня, и быстро на этих данных обучаться.Условно говоря, у самых первых моделей была фора - они бесплатно обучились на естественных общедоступных данных.