- Сигнал за деградация в генеративния ИИ
- Колапсът на Модела: Дегенеративен Феномен
- Трудността на човешката намеса
- Неопределено бъдеще: Предизвикателства и възможни решения
Следвайте Patricia Alegsa в Pinterest!
Сигнал за деградация в генеративния ИИ
Наскоро проведени изследвания са задействали алармите относно тревожно явление в развитието на генеративната изкуствена интелигенция: деградацията на качеството на отговорите.
Експерти посочват, че когато тези системи се обучават с синтетични данни, т.е. съдържание, генерирано от други ИИ, те могат да изпаднат в цикъл на влошаване, който завършва с абсурдни и безсмислени отговори.
Въпросът, който възниква, е: как се стига до тази точка и какви мерки могат да бъдат предприети, за да се предотврати това?
Колапсът на Модела: Дегенеративен Феномен
"Колапс на модела" се отнася до процес, при който ИИ системите попадат в цикъл на обучение с данни с лошо качество, което води до загуба на разнообразие и ефективност.
Според Иля Шумаилов, съавтор на проучване, публикувано в Nature, този феномен възниква, когато ИИ започне да се храни с собствените си изходи, което perpetuates предразсъдъци и намалява полезността му. В дългосрочен план това може да доведе до произвеждане на все по-хомогенна и по-малко точна информация, като ехо на собствените му отговори.
Емили Уенгер, професор по инженерство в Университета Дюк, илюстрира този проблем с прост пример: ако ИИ се обучава да генерира изображения на кучета, той ще има склонност да репликира най-често срещаните породи, пренебрегвайки по-малко известните.
Това не само отразява качеството на данните, но също така поставя значителни рискове за представителството на малцинствата в наборите от данни за обучение.
Четете също: Изкуственият интелект става все по-интелигентен, а хората все по-глупави.
Трудността на човешката намеса
Въпреки сериозността на ситуацията, решението не е просто. Шумаилов посочва, че не е ясно как да се избегне колапсът на модела, въпреки че има доказателства, че смесването на реални данни със синтетични може да намали ефекта.
Въпреки това, това също така предполага увеличение на разходите за обучение и по-голяма трудност при достъпа до пълни набори от данни.
Липсата на ясен подход за човешка интервенция оставя разработчиците пред дилема: могат ли хората наистина да контролират бъдещето на генеративната ИИ?
Фреди Вивас, главен изпълнителен директор на RockingData, предупреждава, че прекаленото обучение с синтетични данни може да създаде "ефект на звукова камера", при който ИИ учи от собствените си неточности, което допълнително намалява способността му да генерира точен и разнообразен съдържание. Така, въпросът как да се гарантира качеството и полезността на моделите на ИИ става все по-спешен.
Неопределено бъдеще: Предизвикателства и възможни решения
Експертите са единодушни, че използването на синтетични данни не е по същество негативно, но тяхното управление изисква отговорен подход. Предложения като внедряване на водни знаци в генерираните данни биха могли да помогнат за идентифициране и филтриране на синтетично съдържание, осигурявайки така качеството при обучението на ИИ модели.
Въпреки това, ефективността на тези мерки зависи от сътрудничеството между големите технологични компании и разработчиците на по-малки модели.
Бъдещето на генеративния ИИ е на карта, а научната общност е в бърза надпревара да намери решения, преди балонът на синтетичното съдържание да избухне.
Ключът ще бъде установяването на надеждни механизми, които да гарантират, че ИИ моделите остават полезни и точни, като така се избягва колапсът, от който много се страхуват.
Абонирайте се за безплатния седмичен хороскоп
Близнаци Везни Водолей Дева Козирог Лъв Овен Рак Риби Скорпион Стрелец Телец