Епоха генеративного ШІ настала: всього через шість місяців після появи на сцені ChatGPT від OpenAI, до половини співробітників деяких провідних світових компаній вже використовують цей тип технології в своїх робочих процесах, а багато інших компаній поспішають запропонувати нові продукти з вбудованим генеративним ШІ.
Але, як відомо тим, хто стежить за галуззю, що розвивається, і основними дослідженнями, дані, що використовуються для навчання великих мовних моделей (LLM) та інших трансформаційних моделей, що лежать в основі таких продуктів, як ChatGPT, Stable Diffusion і Midjourney, спочатку надходять з людських джерел - книг, статей, фотографій і так далі - які були створені без допомоги штучного інтелекту, пише VentureBeat.
Зараз, коли все більше людей використовують ШІ для виробництва і публікації контенту, виникає очевидне питання: що станеться, коли контент, створений ШІ, пошириться по Інтернету, і моделі ШІ почнуть навчатися на ньому, а не контенті, створюваному переважно людиною?
Група дослідників з Великобританії та Канади вивчила саме цю проблему і нещодавно опублікувала статтю про свою роботу в журналі arXiv. Те, що вони виявили, викликає занепокоєння за сучасні технології генеративного ШІ та їхнє майбутнє:
Ми виявили, що використання контенту, створеного на основі моделей, в навчанні викликає незворотні дефекти в одержуваних моделях".