В Татарстане Сетевое издание
В-Татарстане
ЭЛ № ФС77-76322
от 26.07.2019
Входит
в структуру холдинга
Levsha Digital
https://v-tatarstane.ru/news/20230621/373896/
Становятся все менее эффективными: Исследователи озабочены возможным крахом генеративных ИИ-моделей
Становятся все менее эффективными: Исследователи озабочены возможным крахом генеративных ИИ-моделей | 21.06.2023 | В Татарстане
Становятся все менее эффективными: Исследователи озабочены возможным крахом генеративных ИИ-моделей
21 июня - ИА ВТ (В Татарстане). Не так давно в Сети появилась информация о том, что исследователи и эксперты на данный момент озабочены вероятным крахом генеративных ИИ-моделей
20230621T0420
20230626T0240
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://v-tatarstane.ru/news/assets_files/none-img.jpg
21 июня - ИА ВТ (В Татарстане). Не так давно в Сети появилась информация о том, что исследователи и эксперты на данный момент озабочены вероятным крахом генеративных ИИ-моделей Продажная популярность генеративного искусственного интеллекта вызывает серьезные опасения, считают исследователи из Великобритании и Канады.Чат-боты, работающие на базе моделей, вроде ChatGPT, обучаются на огромном объеме данных, и множество крупных компаний уже внедрили такой генеративный ИИ в свои бизнес-процессы. Однако возникает проблема: при обучении ИИ на собственно сгенерированных данных существует риск коллапса обученных моделей, что приводит к появлению неадекватного контента и большому числу ошибок.Коллапс модели возникает, когда ИИ получает все больше данных, созданных им самим. Постепенно модель становится все менее эффективной, и ее ответы теряют разнообразие. Исследователи утверждают, что для предотвращения коллапса моделей необходимо достичь правильного баланса в распределении данных, относящихся к малочисленным группам, чтобы сохранить их особенности и избежать искажений.Однако это оказывается сложной задачей, поскольку моделям сложно обучиться на редких событиях. Авторы исследования также рекомендуют, чтобы компании, занимающиеся разработкой ИИ, уделяли внимание вопросу прогнозирования влияния человеческого фактора на процесс создания данных в своих приложениях. Стандарты и правила, касающиеся защиты данных в сфере искусственного интеллекта, могут нанести ущерб экономическим преимуществам компаний и сделать их уязвимыми для возможных судебных исков.
Россия
В Татарстане
main-t@v-tatarstane.ru
ООО Столичный Деловой Клуб
160
73
160
73
Эвелина Гарифуллина
Новости
ru-RU
В Татарстане
main-t@v-tatarstane.ru
ООО Столичный Деловой Клуб
160
73
730
365
true

Становятся все менее эффективными: Исследователи озабочены возможным крахом генеративных ИИ-моделей

Становятся все менее эффективными: Исследователи озабочены возможным крахом генеративных ИИ-моделей

21 июня - ИА ВТ (В Татарстане). Не так давно в Сети появилась информация о том, что исследователи и эксперты на данный момент озабочены вероятным крахом генеративных ИИ-моделей

Продажная популярность генеративного искусственного интеллекта вызывает серьезные опасения, считают исследователи из Великобритании и Канады.

Чат-боты, работающие на базе моделей, вроде ChatGPT, обучаются на огромном объеме данных, и множество крупных компаний уже внедрили такой генеративный ИИ в свои бизнес-процессы. Однако возникает проблема: при обучении ИИ на собственно сгенерированных данных существует риск коллапса обученных моделей, что приводит к появлению неадекватного контента и большому числу ошибок.

Коллапс модели возникает, когда ИИ получает все больше данных, созданных им самим. Постепенно модель становится все менее эффективной, и ее ответы теряют разнообразие. Исследователи утверждают, что для предотвращения коллапса моделей необходимо достичь правильного баланса в распределении данных, относящихся к малочисленным группам, чтобы сохранить их особенности и избежать искажений.

Однако это оказывается сложной задачей, поскольку моделям сложно обучиться на редких событиях. Авторы исследования также рекомендуют, чтобы компании, занимающиеся разработкой ИИ, уделяли внимание вопросу прогнозирования влияния человеческого фактора на процесс создания данных в своих приложениях. Стандарты и правила, касающиеся защиты данных в сфере искусственного интеллекта, могут нанести ущерб экономическим преимуществам компаний и сделать их уязвимыми для возможных судебных исков.

Для вас пишет: Эвелина Гарифуллина