OpenAI випустила GPT-4 — наступне покоління мовної моделі ШІ

Вона розуміє не лише текст, а й зображення

Світ вже кілька місяців активно використовує ChatGPT, заснований на попередній версії мовної моделі OpenAI — оновлення зможе усунути недоліки в роботі чатбота, сподіваємось і ті, що стосувалися надання оманливих чи помилкових відповідей.

Компанія стверджує, що GPT-4 — «креативніша» і може розв’язувати складні завдання із більшою точністю завдяки розширеним загальним знанням. Мовна модель може аналізувати навіть зображення, однак відповідатиме лише за допомогою тексту.

OpenAI вже співпрацює з низкою компаній, які планують інтегрувати GPT-4 у власні продукти — це електронна платформа вивчення мов Duolingo; компанія Stripe, що розробляє рішення для електронних платежів; освітня організація Khan Academy. Нова модель доступна для широкого загалу через ChatGPT Plus — передплату на ChatGPT від $20 на місяць, а її API згодом опублікують для розробників (тут можна записатись у список очікування).

Генеральний директор OpenAI Сем Альтман написав у Twitter, що GPT-4 «все ще має недоліки та все ще обмежений».

Однак покращення, кажуть в компанії, можна побачити за результатами тестів, включно з LSAT (вступний тест для майбутніх юристів), SAT Math (тест з математики) й SAT Evidence-Based Reading & Writing (іспити з читання та письма). У згаданих тестах GPT-4 набрав 88% і вище, повний список іспитів і бали системи можна переглянути тут.

Протягом останнього року було багато спекуляцій щодо GPT-4 та його можливостей, багато хто припускав, що це буде величезний прогрес у порівнянні з попередніми системами. Однак, судячи з оголошення OpenAI, покращення не надто значні.

«Люди хочуть розчарування і вони його отримають», — сказав Альтман в інтерв’ю про GPT-4 у січні.

Чутки ще більше пожвавилися після того, як керівник Microsoft обмовився, що система буде запущена цього тижня. Він припустив, що система буде мультимодальною, тобто здатною генерувати не лише текст, а й аудіо чи відео.

GPT-4 справді мультимодальна, але це відображається у функції сприйняття, а не відтворення. Компанія каже, що здатність моделі аналізувати текст і зображення одночасно дозволяє їй інтерпретувати складніші вхідні дані.

Нова версія також може приймати та створювати довші записи — до 25 000 слів.

  • Оригінальна дослідницька стаття з описом першої версії мовної моделі OpenAI GPT була опублікована у 2018 році, про GPT-2 було оголошено у 2019 році, а про GPT-3 — у 2020 році. Ці моделі тренуються на величезних масивах тексту, більшу частину якого взято з інтернету. На основі отриманих шаблонів система може прогнозувати, яке слово слідуватиме наступним у реченні. За описом — це відносно простий механізм, однак у кінцевому результаті з’являються гнучкі системи, які можуть генерувати, узагальнювати та перефразовувати текст, а також виконувати інші текстові завдання, такі як переклад або генерування коду.
  • Спочатку OpenAI відкладала випуск своїх моделей GPT, побоюючись, що вони будуть використані для зловмисних цілей, таких як створення спаму та дезінформації. Але наприкінці 2022 року компанія запустила ChatGPT — розмовний чатбот на основі GPT-3.5, до якого міг отримати доступ кожен.
  • Запуск ChatGPT викликав ажіотаж у світі технологій, а Microsoft так надихнулась чатботом, що інвестувала в його розробника $10 млрд та інтегрувала мовну ШІ-модель у власний пошуковик — а сьогодні підтвердила, що Bing вже працює на GPT-4. Google тим часом залишилася у статусі того, хто наздоганяє та терміново представила власного ШІ-чатбота Bard.

Очікувано, легкий доступ до ШІ-технологій не обійшовся без проблем — система освіти намагається адаптуватися до програмного забезпечення, яке пиши тексти, схожі на людські; онлайн-сайти, такі як Stack Overflow і науково-фантастичний журнал Clarkesworld, були змушені закрити подання матеріалів через наплив контенту, створеного ШІ; і раннє використання інструментів ШІ в журналістиці також було не дуже простим.

Джерело theverge

Ви читаєте незалежне україномовне видання "SUNDRIES". Ми не належимо ні олігархам, ні депутатам. Отож ми потребуємо Вашої підтримки для розвитку та збереження незалежності. Підтримайте нас!

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше