GENERATIVE PRE-TRAINED TRANSFORMER 3

Автор(и)

  • Олександр Іванович ГОЛУБЕНКО
  • Олександр Олександрович ПІДМОГИЛЬНИЙ

DOI:

https://doi.org/10.53920/ITS-2022-2-2

Ключові слова:

штучний інтелект (AI), машинне навчання, обробка природної мови (NLP), генеративний передтренувальний трансформатор (GPT), генерація тексту, глибоке навчання, нейронна мережа

Анотація

GPT (Generative Pre-training Transformer) — це тип штучного інтелекту (AI), який використовує алгоритми машинного навчання для створення тексту природною мовою. Перша версія GPT, випущена в 2018 році, стала революційним досягненням у сфері ШІ та обробки природної мови (NLP). Однак він також мав деякі обмеження та проблеми, які були розглянуті в наступних версіях моделі.

Однією з головних проблем першої версії GPT була відсутність контролю над контентом, який вона генерувала. Модель було навчено на великому наборі даних тексту, створеного людиною, і вона змогла створити зв’язний і, здавалося б, людиноподібний текст на широкий спектр тем. Однак він часто створював текст, який був упередженим, образливим або іншим чином недоречним, оскільки він не міг повністю зрозуміти контекст або значення використаних слів.

Іншою проблемою першої версії GPT була її нездатність виконувати складніші завдання NLP, такі як переклад або конспектування. Хоча він міг створити зв’язний текст, він не міг зрозуміти значення чи структуру тексту так, як це може зробити людина.

Подальші версії GPT, такі як GPT-2 і GPT-3, вирішували ці проблеми та додавали нові можливості, такі як здатність виконувати складніші завдання NLP і генерувати більш зв’язний і відповідний контексту текст. Однак вони все ще мають обмеження і можуть давати необ’єктивні або невідповідні результати, якщо не використовувати їх відповідально.

##submission.downloads##

Опубліковано

30-12-2022

Як цитувати

ГОЛУБЕНКО, О. І., & ПІДМОГИЛЬНИЙ, О. О. (2022). GENERATIVE PRE-TRAINED TRANSFORMER 3. ITSynergy, (2), 19–27. https://doi.org/10.53920/ITS-2022-2-2

Номер

Розділ

Подання