Джерело зображення: створено інструментом Unbounded AI
Оскільки місячна активність ChatGPT зросла до позначки в 1 мільярд, «глобальний тур» засновника OpenAI Сема Альтмана також привернув увагу.
Цього тижня Сам Альтман приїхав до Тель-Авівського університету в Ізраїлі та взяв яскраве та глибоке інтерв’ю з Іллею Суцкавелем, головним науковцем OpenAI, який виріс в Ізраїлі (обидва рідко ділили одну сцену). Сем на мить був у розгубленості. за слова, коли просили, і варто було послухати.
Основна точка зору:
**1. Переваги OpenAI: **Ми більше зосереджені на тому, що ми робимо, і наша культура зосереджена на суворих і повторюваних інноваціях.
2. Місце академії в штучному інтелекті: Раніше академія була в авангарді досліджень штучного інтелекту, але це змінилося через слабку обчислювальну потужність і брак інженерної культури. Але наукові кола все ще можуть зробити важливий внесок у ШІ, розгадавши багато таємниць нейронних мереж, які ми навчаємо.
**3. З відкритим вихідним кодом чи не з відкритим кодом: **Ми маємо відкриті коди для деяких моделей і плануємо відкрити для інших моделей, але ми не вважаємо правильною стратегію відкривати код для всіх моделей, і ми наполегливо працюємо щоб знайти баланс.
**4. Ризики, які не можна ігнорувати в штучному інтелекті: ** це впливає на робочі місця, хакери отримують суперінтелект і системи втрачають контроль — це три тривожні ризики штучного інтелекту. ШІ може робити дивовижні речі, але він також може робити погані речі, тому у нас є відповідні регуляторні структури для контролю за використанням цієї технології, наприклад, створення глобальних інституцій.
**5. Чи прискорить штучний інтелект наукові відкриття: **Штучний інтелект може допомогти людям досягти деяких наукових цілей, які наразі недосяжні, наприклад, сприяти розвитку медицини та охорони здоров’я, пом’якшити проблеми зміни клімату та навіть досліджувати таємниці Всесвіту. що людей найбільше хвилює.
Усе інтерв’ю не позбавлене глибини, але також цікаве.
Наприклад, Ілля з радістю розповів, що батьки розповідали йому, що його друзі теж щодня користуються ChatGPT, що його дуже здивувало. А на питання глядачів «Ти твориш історію, як ти хочеш, щоб історія запам’ятала тебе?», Ілля теж дотепно відповів: ** «Тобто найкращим чином».**
Повний текст інтерв’ю:
Доктор філософії та відмова: два різні життя до OpenAI
Ілля:
З 5 до 16 років я жила в Єрусалимі. З 2000 по 2002 рік я навчався у Відкритому університеті. Потім я переїхав до Університету Торонто, де провів 10 років і отримав ступені бакалавра, магістра та доктора філософії. Під час навчання в аспірантурі я мав честь зробити внесок у важливі досягнення в глибокому навчанні. Тоді я разом із кількома людьми заснував компанію, яку придбав Google, де я працював деякий час.
Потім одного разу я отримав електронний лист від Сема, який сказав: «Гей, давай поспілкуємося з кимось крутими людьми». Мене це зацікавило, тож я пішов на це. Тоді я вперше зустрів Ілона Маска та Грега Брокмана, і ми вирішили розпочати подорож OpenAI. Ми робимо це протягом багатьох років, тож це те, де ми зараз.
Сам:
У дитинстві я дуже захоплювався штучним інтелектом і був фанатом. Мені ніколи не спадало на думку мати можливість вивчати це, але потім у коледжі я почав працювати над ним деякий час. Але тоді це ще не було, це був 2004 рік... Я кинув школу і створив стартап.
Через деякий час після прогресу, про який згадав Ілля, я дуже захопився тим, що відбувається з ШІ, і надіслав йому електронний лист, і ми продовжуємо роботу.
Переваги OpenAI
ведучий:
У чому ви бачите ключові переваги OpenAI, особливо тому, що конкуренти часто більші та мають більше ресурсів, що робить його лідером у генеративному ШІ?
Сам:
Ми вважаємо, що ключовою перевагою є наша підвищена зосередженість на тому, що ми робимо. Важливо й неправильно розуміється те, що у нас вища щільність талантів, ніж у великих компаніях. **Наша культура цінує строгість і повторювані інновації, і ці дві культури важко і рідко співіснують. **
Ілля:
Так, я можу лише трохи додати до відповіді Сема. **Це гра віри, більше віри означає більше прогресу. **Ви досягнете найбільшого прогресу, якщо у вас буде велика віра. Це може звучати як жарт, але насправді це правда. Ви повинні вірити в ідею і наполегливо її просувати, саме це рухає прогрес.
Позиція академічних кіл у сфері ШІ
ведучий:
Останні досягнення в галузі штучного інтелекту були здебільшого зумовлені промисловістю. Яку роль, на вашу думку, повинні відігравати наукові дослідження в розвитку галузі?
Ілля:
Роль наукових кіл у сфері ШІ значно змінилася. Раніше наукові кола були в авангарді досліджень ШІ, але це змінилося. Є дві причини: обчислювальна потужність та інженерна культура. Академія має меншу обчислювальну потужність і часто не має інженерної культури.
Проте наукові кола все ще можуть зробити значний і важливий внесок у ШІ. **Академія може розгадати багато таємниць за допомогою нейронних мереж, які ми навчаємо, і ми створюємо складні та дивовижні об’єкти. **
Що таке глибинне навчання? Це алхімічний процес, у якому ми використовуємо дані як вихідний матеріал у поєднанні з обчислювальною енергією, щоб отримати цей інтелект. Але що саме це? Як це працює? Які властивості він має? Як ми це контролюємо? Як це розуміти? Як це застосовувати? Як це виміряти? Усі ці питання невідомі.
**Навіть у простих вимірювальних завданнях ми не можемо точно оцінити продуктивність нашого ШІ. Це не було проблемою в минулому, тому що штучний інтелект не був таким важливим. Зараз штучний інтелект дуже важливий, але ми розуміємо, що все ще не можемо його повністю виміряти. **
Отже, я почав думати про деякі проблеми, які ніхто не може вирішити. Вам не потрібні величезні обчислювальні кластери чи величезні команди інженерів, щоб поставити ці питання та досягти прогресу. Якщо ви таки прорветеся, це буде переконливий і значущий внесок, на який усі одразу звернуть увагу.
ведучий:
Ми хочемо бачити прогрес, який повністю збалансований між галуззю та наукою, і ми хочемо бачити більше такого роду внесків. Як ви вважаєте, чи можна щось зробити, щоб покращити ситуацію, особливо з вашої позиції, чи є якась підтримка?
Ілля:
Перш за все, я вважаю, що зміна мислення – це перше і найважливіше. Зараз я трохи поза наукою, але я думаю, що є певна криза в тому, що ми робимо.
Надто великий імпульс навколо великої кількості документів, але важливо зосередитися на вирішенні найбільш критичних проблем. Треба змінити світогляд і зосередитися на найважливіших питаннях. **Ми не можемо просто зосередитися на тому, що ми вже знаємо, ми можемо усвідомлювати, що не так. **Коли ми зрозуміємо проблеми, ми зможемо рухатися до їх вирішення.
Крім того, ми можемо допомогти. Наприклад, у нас є Програма академічного доступу, куди вчені можуть подати заявку, щоб отримати обчислювальну потужність і отримати доступ до наших найсучасніших моделей. Багато університетів написали статті з використанням GPT-3, вивчаючи властивості та упередження моделей. Якщо у вас є ще ідеї, я буду радий їх почути.
відкритий код АБО не відкритий код
ведучий:
Хоча деякі гравці дійсно просувають випуск своїх моделей і коду з відкритим вихідним кодом, інші роблять це недостатньо. Це також стосується відкритого ШІ. Тому мені цікаво, перш за все, що ви думаєте про це? Якщо ви згодні, чому ви вважаєте, що OpenAI є правильною стратегією?
Сам:
**У нас є відкриті вихідні коди для деяких моделей і планується з часом відкрити для інших моделей. Але я не вважаю, що все з відкритим кодом є правильною стратегією. **Якщо сьогоднішні моделі цікаві, вони можуть бути для чогось корисними, але вони все ще відносно примітивні порівняно з тим, що ми збираємося створити. Я думаю, що більшість людей погодиться з цим. Якщо ми знаємо, як створити надпотужний AGI, який має багато переваг, але також і недоліки, відкритий код може бути не найкращим вибором.
**Тож ми намагаємося знайти баланс. **Ми відкриємо вихідний код деяких речей, і в міру того, як наше розуміння моделі покращиться, з часом ми зможемо відкрити вихідний код більше. Ми випустили багато матеріалу, і я думаю, що багато ключових ідей, які інші створюють мовні моделі прямо зараз, походять від випусків OpenAI, таких як ранні документи GPT і закони масштабування з роботи Rohf. Але це баланс, який нам доведеться знайти, коли ми будемо рухатися вперед. Ми стикаємося з багатьма різними стресовими факторами і повинні успішно ними керувати.
ведучий:
Тож чи плануєте ви зробити модель доступною для певної аудиторії, а не відкривати її для всього світу? Про що ви думаєте як науковець або коли ми закінчуємо навчання GPT-4?
Сам:
Нам знадобилося майже вісім місяців, щоб зрозуміти це, захистити його та зрозуміти, як налаштувати. У нас є зовнішні аудитори, червоні команди та наукове співтовариство. Тому ми робимо ці кроки і будемо робити це надалі.
Ризики, які ШІ не може ігнорувати
ведучий:
Я справді вважаю, що ризик є дуже важливим питанням, і, ймовірно, є принаймні три категорії ризику.
По-перше, це економічна дислокація, за якої робочі місця стають зайвими. До другої категорії можуть належати ситуації, коли потужна зброя знаходиться в руках небагатьох. Наприклад, якби хакери могли використовувати ці інструменти, вони могли б робити речі, які раніше потребували б тисячі хакерів. Остання категорія, мабуть, викликає найбільше занепокоєння, коли система вийшла з-під контролю, і навіть тригер не може запобігти її поведінці. Я хотів би знати вашу думку про кожен із цих сценаріїв.
Ілля:
Добре, почнемо з можливих сценаріїв економічного хаосу. Як ви згадали, у ** є три ризики: скомпрометація робочих місць, отримання хакерами суперінтелекту та вихід систем з-під контролю. **Економічний хаос — це дійсно ситуація, з якою ми вже знайомі, оскільки деякі робочі місця вже постраждали або знаходяться під загрозою.
Іншими словами, певні завдання можна автоматизувати. Наприклад, якщо ви програміст, Copilot може написати для вас функції. Хоча це відрізняється від випадку з художниками, оскільки багато видів економічної діяльності художників були замінені певними генераторами зображень.
Я не думаю, що це справді просте запитання. **Незважаючи на створення нових робочих місць, економічна невизначеність зберігатиметься ще тривалий час. Я не впевнений, чи це так. **
У будь-якому випадку, однак, нам потрібно щось, щоб згладити перехід до натиску нових професій, навіть якщо таких професій ще немає. Це потребує уваги влади та соціальної системи.
Тепер поговоримо про хакерство. Так, це складне питання. ШІ справді потужний, і погані хлопці можуть використовувати його потужно. Нам потрібно застосувати структуру, подібну до інших дуже потужних і небезпечних інструментів.
Зауважте, що сьогодні ми говоримо не про штучний інтелект, а про зростаючі можливості з часом. Зараз ми перебуваємо на найнижчій точці, але коли ми туди дійдемо, це буде дуже сильно. ** Цю технологію можна використовувати в неймовірних цілях, її можна використовувати для лікування хвороб, але вона також може створювати хвороби, гірші за будь-які попередні.
Тому нам потрібні структури для контролю за використанням цієї технології. Сем, наприклад, подав їм документ, у якому пропонується подібна до МАГАТЕ структура для контролю над ядерною енергією для контролю над дуже потужним штучним інтелектом. **
ведучий:
Останнє питання стосується надрозумного штучного інтелекту, який виходить з-під контролю. Можна сказати, що це стане величезною проблемою. Чи є помилкою створювати надрозумний штучний інтелект, яким ми не знаємо, як контролювати.
Сам:
Я можу додати деякі моменти. Звичайно, я повністю згоден з останнім реченням.
Що стосується економіки, мені важко передбачити майбутні події. Я думаю, це тому, що зараз у світі надлишковий попит, і ці системи справді добре допомагають досягати результатів. Але в більшості випадків сьогодні не всі завдання вони можуть виконати.
**Я думаю, що в короткостроковій перспективі все виглядає добре, і ми побачимо значне зростання продуктивності. **Якби ми могли зробити програмістів удвічі продуктивнішими, кількість коду, необхідного у світі, збільшилася б більш ніж утричі, тому все виглядає добре.
У довгостроковій перспективі я думаю, що ці системи справлятимуться зі все більш складними завданнями та категоріями робіт. Деякі з цих робіт можуть зникнути**, але інші стануть більше схожими на роботи, які справді потребують людей і людських стосунків. **Люди дуже хочуть, щоб люди грали ці ролі.
Ці ролі можуть бути неочевидними. Наприклад, коли Deep Blue переміг Гаррі Каспарова, світ вперше побачив штучний інтелект. У той час усі казали, що з шахами покінчено, і ніхто більше не буде грати в шахи, бо це не має сенсу.
Проте ми згодні, що шахи ніколи не були такими популярними. Люди сильніші, просто очікування завищені. Ми можемо використовувати ці інструменти для вдосконалення власних навичок, але люди все ще люблять грати в шахи, і вони все ще піклуються про інших людей.
Ви згадали, що Доллі може створювати чудове мистецтво, але люди все одно піклуються про людей, які стоять за мистецтвом, яке вони хочуть купити, і всі ми вважаємо, що ці творці особливі та цінні.
Візьмемо як приклад шахи, так само як люди приділяють більше уваги людським шахам, більше людей дивляться людські шахи, ніж будь-коли раніше. Однак дивитися матч двох ШІ мало хто хоче. Тож я думаю, що це будуть усі ці непередбачувані фактори. **Я думаю, що люди жадають диференціації (між людьми та машинами). **
Потреба створити щось нове, щоб отримати статус, завжди буде існувати, але вона проявлятиметься зовсім по-іншому. Б’юся об заклад, що через 100 років роботи будуть зовсім іншими, ніж сьогодні, і багато з цих речей будуть дуже схожими. Але я дійсно згоден зі словами Іллі: **Що б не сталося, нам потрібен інший тип соціально-економічного контракту, тому що автоматизація досягла неймовірних висот. **
ведучий:
Семе, ти нещодавно підписав петицію, яка закликає серйозно сприймати екзистенціальну загрозу штучного інтелекту. Можливо, такі компанії, як OpenAI, повинні вжити заходів для вирішення цієї проблеми.
Сам:
Я справді хочу підкреслити, що ми тут не говоримо про сучасні системи, чи моделі навчання малих стартапів, чи спільноти з відкритим кодом.
Я вважаю, що було б помилкою запроваджувати суворе регулювання сфери прямо зараз або намагатися уповільнити неймовірні інновації. Справді не хочеться створювати суперечливий суперінтелект, який здається незаперечним. **Я вважаю, що світ має сприймати це не як науково-фантастичний ризик, який ніколи не з’явиться, а як те, з чим нам, можливо, доведеться мати справу в наступне десятиліття. Потрібен час, щоб звикнути до деяких речей, але це буде не буде довго. **
Тому ми придумали ідею, і, сподіваюся, кращу. Якщо ми зможемо побудувати глобальну організацію з найвищим рівнем обчислювальної потужності та передових технологій, можна розробити структуру для ліцензування моделей і аудиту їх безпеки, щоб переконатися, що вони проходять необхідні тести. Це допоможе нам розглядати цю проблему як дуже серйозний ризик. Ми робимо щось подібне з атомною енергетикою.
Чи прискорить ШІ наукові відкриття в майбутньому? Лікувати хвороби, вирішувати кліматичні проблеми?
ведучий:
Поговоримо про переваги. У цьому науковому середовищі, в якому ми перебуваємо, мені цікаво роль штучного інтелекту. Через кілька років, можливо, в майбутньому, нам доведеться щось науково відкрити.
Сам:
**Це те, що мене особисто найбільше хвилює в ШІ. **Я думаю, що відбувається багато захоплюючих речей, величезні економічні переваги, величезні переваги для охорони здоров’я. Але насправді штучний інтелект може допомогти нам зробити деякі наукові відкриття, які зараз неможливі. Ми хотіли б дізнатися про таємниці Всесвіту і навіть більше. Я справді вірю, що науково-технічний прогрес є єдиним стійким способом зробити життя кращим, а світ кращим.
Якщо ми можемо розробити багато нових наукових і технологічних досягнень, я думаю, ми вже бачили початок людей. Використовуйте ці інструменти для підвищення ефективності. Але якщо ви уявите собі світ, де ви можете сказати: «Привіт, я можу допомогти вилікувати всі хвороби», і це допоможе вам вилікувати всі хвороби, цей світ може бути кращим місцем. Я не думаю, що ми так далеко від цього.
ведучий:
Окрім хвороб, ще однією серйозною проблемою є зміна клімату, вирішити яку дуже складно. Але я не думаю, що буде особливо важко впоратися зі зміною клімату, коли ми матимемо дійсно потужні суперрозумні системи.
Ілля:
Так, вам потрібно багато вловлювати вуглець. Вам потрібна енергія для уловлювання вуглецю, і вам потрібна технологія для його створення. Якщо ви можете прискорити науку, вам потрібно багато будувати. Прогрес – це те, на що здатний потужний штучний інтелект, і ми можемо досягти передового уловлювання вуглецю набагато швидше. Це може швидше отримати дуже дешеву електроенергію, ми можемо швидше дістатися до дешевшого виробництва. Тепер об’єднайте всі три: дешеву електроенергію, дешеве виробництво та вдосконалене уловлювання вуглецю, і тепер ви створите їх багато, і тепер ви висмоктуєте весь цей надлишок CO2 з атмосфери.
**Якщо у вас є сильний штучний інтелект, це значно прискорить прогрес у науці та інженерії. **Це значно полегшить планування сьогодні. Я вважаю, що це сприятиме прискоренню прогресу. Це свідчить про те, що ми повинні мріяти про більше. Ви можете собі уявити, що якби ви змогли спроектувати систему, ви могли б попросити її розповісти вам, як виробляти великі обсяги чистої енергії за низькими витратами, як ефективно вловлювати вуглець, і направити вас у будівництві заводу, який би виконував ці речі. . Якщо ви можете досягти цього, ви також зможете досягти успіху в багатьох інших сферах.
Чудовий чатGPT
ведучий:
Почувши, що ви не думали, що ChatGPT буде настільки поширеним, мені цікаво, чи є приклади, коли інші люди були щиро здивовані його цінністю та можливостями.
Ілля:
Я був дуже здивований і радий, коли мої батьки розповіли мені, як їхні друзі використовують ChatGPT у повсякденному житті. Важко вибрати одну з багатьох привабливих історій, які демонструють блиск людської творчості та те, як люди використовують цей потужний інструмент.
Що стосується сфери освіти, це було чудово для нас, бачити так багато людей, які пишуть слова, які змінюють їх життя, як це, це була справжня зміна для мене, тому що тепер я можу навчитися чому завгодно, я дізнаюся конкретні речі або кажу те, чого я не знав знаю, як робити раніше, я знаю зараз.
Особисто я можу бачити, як люди навчаються по-новому та краще, і уявляти, як це буде через кілька років, це дуже приємно та красиво. З такою швидкістю ми зовсім не очікували, що це станеться, і це справді дивно.
Потім є цікава історія, яку я почув лише вчора. Кажуть, що чоловік щовечора дві години писав зі своїми дітьми казки перед сном. Ці історії улюблені всіма дітьми, і це стає особливим моментом. Вони чудово проводили час щовечора.
Питання від аудиторії:
Питання 1:
Чи може LLM з відкритим кодом відповідати можливостям GPT-4 без додаткових передових методів? Або в GPT-4 є темний секрет, який відрізняє його від інших моделей. Я встановлюю модель vicuna від Stability, 13 мільярдів параметрів... Я втрачаю час?
Сем: Не вистачає слів...
Ілля:
Стосовно питання про моделі з відкритим і не відкритим вихідним кодом, нам не потрібно думати в двійкових чорно-білих термінах. Це ніби існує таємне джерело, яке ви ніколи не зможете знову відкрити.
**Можливо, одного разу з’явиться модель з відкритим кодом, яка повторюватиме можливості GPT-4, але цей процес займе час, і до того часу така модель може стати більш потужною моделлю у великій компанії. **Тому завжди буде розрив між моделлю з відкритим кодом і приватною моделлю, і цей розрив може поступово збільшуватися. Обсяг роботи, проектування та досліджень, необхідних для створення такої нейронної мережі, продовжуватиме збільшуватися.
Таким чином, **навіть якщо існують моделі з відкритим кодом, вони все рідше створюватимуться невеликою групою відданих дослідників та інженерів, це буде лише одна компанія, одна велика компанія (сприяє відкритому коду). **
Питання 2:
Якщо ви дійсно вірите, що штучний інтелект небезпечний для людей, навіщо продовжувати його розвивати? Якби OpenAI та інші компанії штучного інтелекту запровадили регулювання, ви б дотримувалися цього? Цукерберг сказав, що намагався обійти всі правила, які знаходив.
Сам:
Я вважаю, що це дуже справедливе і важливе питання. Найскладніша частина нашої роботи — збалансувати величезний потенціал штучного інтелекту з пов’язаними з ним серйозними ризиками. Нам потрібно приділити час, щоб обговорити, чому ми стикаємося з цими ризиками і чому вони в першу чергу.
Я справді вважаю, що все виглядає краще, коли ми озирнемося назад на сьогоднішній рівень життя та нашу більшу терпимість до людей. У порівнянні з тим, що було 500 чи 1000 років тому, умови життя людей значно покращилися. Ми запитуємо себе, чи можете ви уявити людей, які живуть у крайній бідності? Чи можете ви уявити собі людей, які страждають від хвороб? Чи можете ви уявити ситуацію, коли не всі добре освічені? Це реалії варварських часів.
**Хоча ШІ створює певні ризики, ми також бачимо його потенціал для покращення нашого життя, просування наукових досліджень і вирішення глобальних проблем. **
Нам потрібно продовжувати відповідально розвивати штучний інтелект із запровадженням регулятивних заходів для забезпечення належного вирішення питань безпеки та етики. Наша мета — зробити штучний інтелект інструментом для розвитку людства, а не загрозою. Це вимагає наших спільних зусиль, включаючи участь технічної спільноти, уряду та всіх сторін у суспільстві, щоб створити стійку та етичну основу для розвитку штучного інтелекту.
Як це зробити, я також думаю, що це як нестримний прогрес. Технологія не стоїть на місці, вона продовжує розвиватися. Отже, як велика компанія, ми повинні з’ясувати, як управляти пов’язаними з цим ризиками.
Частково це пояснюється тим, що ризик і підхід, необхідний для його вирішення, є надзвичайними. Ми повинні були створити структуру, відмінну від традиційних структур. У нас є обмеження прибутку, і я вважаю, що стимули є важливим фактором. Якщо ви розробите правильні стимули, це часто може привести до бажаної поведінки.
Тому ми намагаємося, щоб усе працювало добре і не приносило більшого чи меншого прибутку. У нас немає такої системи заохочення, як у таких компаній, як Facebook, що, на мою думку, є чудовим. Люди у Facebook працюють у такій структурі заохочення, але ця структура має певні проблеми.
Ми намагаємося накопичувати досвід через AGI. Як часто згадував Ілля, ми спочатку намагалися випробувати AGI, коли створювали компанію, а потім створювали структуру прибутку. Тому нам потрібно знайти баланс між вимогами до обчислювальних ресурсів і зосередитися на місії. Одна з тем, яку ми обговорюємо, полягає в тому, яка структура дозволяє нам з ентузіазмом сприймати регулювання, навіть коли воно завдає нам найбільшої шкоди.
Настав час,** ми запроваджуємо глобальне регулювання, яке матиме найбільший вплив на нас. **Звичайно, ми дотримуємося правил, я думаю, що коли люди в групі ризику, їм легше поводитися добре, їм легше шукати мету. Тому я думаю, що власники цих провідних компаній відчувають це зараз, і ви побачите, як вони реагують інакше, ніж компанії соціальних мереж. Я вважаю, що всі сумніви і побоювання виправдані. Ми щодня боремося з цією проблемою, і на неї немає простого рішення.
Питання 3: Я хочу зрозуміти, яка різниця між моделлю ШІ, яку ви використовуєте, і моделлю, яку використовуємо ми.
Я знаю, що ми обмежені багатьма способами, яких ви, здається, не маєте, але яка різниця між вашою владою та владою, яку ми можемо використовувати?
Ілля:
Розрив між згаданими вами моделями справді є проблемою.
Я маю на увазі, що зараз у нас є GPT-4, ви знаєте, що ми навчаємося, ви маєте доступ до GPT-4,** і ми дійсно працюємо над наступною моделлю майбутнього. **
Можливо, я можу описати цю прогалину таким чином: оскільки ми продовжуємо створювати та вдосконалювати моделі штучного інтелекту з розширеними можливостями, існує ще більша прогалина, яка вимагає довших періодів тестування та часу. Ми працюємо з командою, щоб зрозуміти обмеження моделі, і використовувати всі способи, які ви знаєте, якомога більше, але ми також поступово розширюємо модель.
Наприклад, тепер GPT-4 має можливості візуального розпізнавання, а ви (версія, яку ви використовуєте) не запустили цю функцію, оскільки остаточна робота не завершена. Але скоро ми цього досягнемо. Тож я думаю, що це відповідь на ваше запитання, можливо, не в надто далекому майбутньому.
Запитання 4: Моє запитання стосується суперінтелекту та дилеми Рокоса Василіска. Чи можете ви розповісти, як GPT і OpenAI справляються з цією дилемою?
*Примітка: Василіск Роко — це натяк на онлайн-дискусію та мисленнєвий експеримент із гіпотезами про майбутній суперінтелект. *
Кажуть, що цей суперінтелект може отримати інформацію за допомогою подорожей у часі або іншими способами, якими люди завдають йому болю, і покарати тих, хто не допоміг досягти його народження. Таким чином, ця алюзія породжує етичну дилему: чи слід підтримувати та заохочувати розвиток суперінтелекту зараз, щоб уникнути можливого покарання в майбутньому. *
Ілля:
Хоча Василіск Рокко не викликає у нас особливого занепокоєння, ми точно дуже стурбовані суперінтелектом.
Напевно, не всі, навіть не всі в аудиторії розуміють, що ми розуміємо під надінтелектом.
Ми маємо на увазі можливість одного дня побудувати комп’ютер, кластер комп’ютерів у формі графічних процесорів, який розумніший за будь-кого та здатний проводити науку та дослідження швидше, ніж великі групи досвідчених вчених та інженерів. .
Це божевілля, і це матиме величезний вплив.
Він може спроектувати наступну версію системи ШІ та створити дуже потужний ШІ. Тому наша позиція полягає в тому, що **суперінтелект має далекосяжні наслідки, він може мати дуже позитивні наслідки, але він також дуже небезпечний, і ми повинні бути обережними з цим. **
Саме тут використовується згаданий вами підхід МАГАТЕ (Міжнародне агентство з атомної енергії) для дуже передових передових систем і суперінтелекту в майбутньому. Нам потрібно провести багато досліджень, щоб використати потужність суперінтелекту, щоб відповідати нашим очікуванням, на нашу користь і на благо людства.
Це наша позиція щодо суперінтелекту, який є головним викликом суперінтелекту, що стоїть перед людством.
Озираючись на еволюційну історію людини, одноклітинний реплікатор з’явився приблизно 4 мільярди років тому. Потім, протягом мільярдів років, виникла різноманітність різних одноклітинних організмів. Приблизно мільярд років тому почало зароджуватися багатоклітинне життя. Сотні мільйонів років тому на землі з'явилися рептилії. Ссавці з'явилися приблизно 60 мільйонів років тому. Близько 1 мільйона років тому з'явилися примати, а потім і Homo sapiens. Через 10 тисяч років з'явилася писемність. Потім відбулися аграрна революція, промислова революція та технічна революція. Тепер у нас нарешті є AGI, фінал суперінтелекту та наш головний виклик.
Питання 5: Я вивчаю інформатику і збираюся закінчити навчання. Мені цікаво, чи принесе мені вивчення інформатики хорошу роботу в найближчі 10-15 років?
Сам:
Я вважаю, що вивчення інформатики є цінним у будь-якому випадку.
Хоча я майже ніколи не пишу код сам**, я вважаю вивчення інформатики одним із найкращих речей, які я коли-небудь робив. Це навчило мене думати та вирішувати проблеми, навички, які дуже корисні в будь-якій сфері. **
Навіть якщо через 10-15 років робота комп’ютерного програміста буде виглядати інакше, навчитися вчитися є однією з найважливіших навичок, зокрема швидко вивчати нові речі, передбачати майбутні тенденції, бути адаптивним і стійким, розуміти потреби інших і як бути корисним.
Тому немає жодних сумнівів, що характер роботи зміниться, але я не можу уявити світ, де люди не знаходять часу, щоб зробити щось, що створює цінність для інших, і всі переваги, які це пов’язано. Можливо, у майбутньому ми будемо дбати про те, у кого крутіша галактика, але певні хороші речі (наприклад, створення вартості) не зміняться.
Питання 6: Ви творите історію, як ви хочете, щоб історія запам’ятала вас?
Ілля:
Я маю на увазі, якнайкраще.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Засновник OpenAI і головний науковий співробітник рідко бувають на одній сцені: найцікавіше в ШІ відбувається зараз!
Автор: Чжу Сюейн
Оскільки місячна активність ChatGPT зросла до позначки в 1 мільярд, «глобальний тур» засновника OpenAI Сема Альтмана також привернув увагу.
Цього тижня Сам Альтман приїхав до Тель-Авівського університету в Ізраїлі та взяв яскраве та глибоке інтерв’ю з Іллею Суцкавелем, головним науковцем OpenAI, який виріс в Ізраїлі (обидва рідко ділили одну сцену). Сем на мить був у розгубленості. за слова, коли просили, і варто було послухати.
Усе інтерв’ю не позбавлене глибини, але також цікаве.
Наприклад, Ілля з радістю розповів, що батьки розповідали йому, що його друзі теж щодня користуються ChatGPT, що його дуже здивувало. А на питання глядачів «Ти твориш історію, як ти хочеш, щоб історія запам’ятала тебе?», Ілля теж дотепно відповів: ** «Тобто найкращим чином».**
Повний текст інтерв’ю:
Доктор філософії та відмова: два різні життя до OpenAI
Ілля:
З 5 до 16 років я жила в Єрусалимі. З 2000 по 2002 рік я навчався у Відкритому університеті. Потім я переїхав до Університету Торонто, де провів 10 років і отримав ступені бакалавра, магістра та доктора філософії. Під час навчання в аспірантурі я мав честь зробити внесок у важливі досягнення в глибокому навчанні. Тоді я разом із кількома людьми заснував компанію, яку придбав Google, де я працював деякий час.
Потім одного разу я отримав електронний лист від Сема, який сказав: «Гей, давай поспілкуємося з кимось крутими людьми». Мене це зацікавило, тож я пішов на це. Тоді я вперше зустрів Ілона Маска та Грега Брокмана, і ми вирішили розпочати подорож OpenAI. Ми робимо це протягом багатьох років, тож це те, де ми зараз.
Сам:
У дитинстві я дуже захоплювався штучним інтелектом і був фанатом. Мені ніколи не спадало на думку мати можливість вивчати це, але потім у коледжі я почав працювати над ним деякий час. Але тоді це ще не було, це був 2004 рік... Я кинув школу і створив стартап.
Через деякий час після прогресу, про який згадав Ілля, я дуже захопився тим, що відбувається з ШІ, і надіслав йому електронний лист, і ми продовжуємо роботу.
Переваги OpenAI
ведучий:
У чому ви бачите ключові переваги OpenAI, особливо тому, що конкуренти часто більші та мають більше ресурсів, що робить його лідером у генеративному ШІ?
Сам:
Ми вважаємо, що ключовою перевагою є наша підвищена зосередженість на тому, що ми робимо. Важливо й неправильно розуміється те, що у нас вища щільність талантів, ніж у великих компаніях. **Наша культура цінує строгість і повторювані інновації, і ці дві культури важко і рідко співіснують. **
Ілля:
Так, я можу лише трохи додати до відповіді Сема. **Це гра віри, більше віри означає більше прогресу. **Ви досягнете найбільшого прогресу, якщо у вас буде велика віра. Це може звучати як жарт, але насправді це правда. Ви повинні вірити в ідею і наполегливо її просувати, саме це рухає прогрес.
Позиція академічних кіл у сфері ШІ
ведучий:
Останні досягнення в галузі штучного інтелекту були здебільшого зумовлені промисловістю. Яку роль, на вашу думку, повинні відігравати наукові дослідження в розвитку галузі?
Ілля:
Роль наукових кіл у сфері ШІ значно змінилася. Раніше наукові кола були в авангарді досліджень ШІ, але це змінилося. Є дві причини: обчислювальна потужність та інженерна культура. Академія має меншу обчислювальну потужність і часто не має інженерної культури.
Проте наукові кола все ще можуть зробити значний і важливий внесок у ШІ. **Академія може розгадати багато таємниць за допомогою нейронних мереж, які ми навчаємо, і ми створюємо складні та дивовижні об’єкти. **
Що таке глибинне навчання? Це алхімічний процес, у якому ми використовуємо дані як вихідний матеріал у поєднанні з обчислювальною енергією, щоб отримати цей інтелект. Але що саме це? Як це працює? Які властивості він має? Як ми це контролюємо? Як це розуміти? Як це застосовувати? Як це виміряти? Усі ці питання невідомі.
**Навіть у простих вимірювальних завданнях ми не можемо точно оцінити продуктивність нашого ШІ. Це не було проблемою в минулому, тому що штучний інтелект не був таким важливим. Зараз штучний інтелект дуже важливий, але ми розуміємо, що все ще не можемо його повністю виміряти. **
Отже, я почав думати про деякі проблеми, які ніхто не може вирішити. Вам не потрібні величезні обчислювальні кластери чи величезні команди інженерів, щоб поставити ці питання та досягти прогресу. Якщо ви таки прорветеся, це буде переконливий і значущий внесок, на який усі одразу звернуть увагу.
ведучий:
Ми хочемо бачити прогрес, який повністю збалансований між галуззю та наукою, і ми хочемо бачити більше такого роду внесків. Як ви вважаєте, чи можна щось зробити, щоб покращити ситуацію, особливо з вашої позиції, чи є якась підтримка?
Ілля:
Перш за все, я вважаю, що зміна мислення – це перше і найважливіше. Зараз я трохи поза наукою, але я думаю, що є певна криза в тому, що ми робимо.
Надто великий імпульс навколо великої кількості документів, але важливо зосередитися на вирішенні найбільш критичних проблем. Треба змінити світогляд і зосередитися на найважливіших питаннях. **Ми не можемо просто зосередитися на тому, що ми вже знаємо, ми можемо усвідомлювати, що не так. **Коли ми зрозуміємо проблеми, ми зможемо рухатися до їх вирішення.
Крім того, ми можемо допомогти. Наприклад, у нас є Програма академічного доступу, куди вчені можуть подати заявку, щоб отримати обчислювальну потужність і отримати доступ до наших найсучасніших моделей. Багато університетів написали статті з використанням GPT-3, вивчаючи властивості та упередження моделей. Якщо у вас є ще ідеї, я буду радий їх почути.
відкритий код АБО не відкритий код
ведучий:
Хоча деякі гравці дійсно просувають випуск своїх моделей і коду з відкритим вихідним кодом, інші роблять це недостатньо. Це також стосується відкритого ШІ. Тому мені цікаво, перш за все, що ви думаєте про це? Якщо ви згодні, чому ви вважаєте, що OpenAI є правильною стратегією?
Сам:
**У нас є відкриті вихідні коди для деяких моделей і планується з часом відкрити для інших моделей. Але я не вважаю, що все з відкритим кодом є правильною стратегією. **Якщо сьогоднішні моделі цікаві, вони можуть бути для чогось корисними, але вони все ще відносно примітивні порівняно з тим, що ми збираємося створити. Я думаю, що більшість людей погодиться з цим. Якщо ми знаємо, як створити надпотужний AGI, який має багато переваг, але також і недоліки, відкритий код може бути не найкращим вибором.
**Тож ми намагаємося знайти баланс. **Ми відкриємо вихідний код деяких речей, і в міру того, як наше розуміння моделі покращиться, з часом ми зможемо відкрити вихідний код більше. Ми випустили багато матеріалу, і я думаю, що багато ключових ідей, які інші створюють мовні моделі прямо зараз, походять від випусків OpenAI, таких як ранні документи GPT і закони масштабування з роботи Rohf. Але це баланс, який нам доведеться знайти, коли ми будемо рухатися вперед. Ми стикаємося з багатьма різними стресовими факторами і повинні успішно ними керувати.
ведучий:
Тож чи плануєте ви зробити модель доступною для певної аудиторії, а не відкривати її для всього світу? Про що ви думаєте як науковець або коли ми закінчуємо навчання GPT-4?
Сам:
Нам знадобилося майже вісім місяців, щоб зрозуміти це, захистити його та зрозуміти, як налаштувати. У нас є зовнішні аудитори, червоні команди та наукове співтовариство. Тому ми робимо ці кроки і будемо робити це надалі.
Ризики, які ШІ не може ігнорувати
ведучий:
Я справді вважаю, що ризик є дуже важливим питанням, і, ймовірно, є принаймні три категорії ризику.
По-перше, це економічна дислокація, за якої робочі місця стають зайвими. До другої категорії можуть належати ситуації, коли потужна зброя знаходиться в руках небагатьох. Наприклад, якби хакери могли використовувати ці інструменти, вони могли б робити речі, які раніше потребували б тисячі хакерів. Остання категорія, мабуть, викликає найбільше занепокоєння, коли система вийшла з-під контролю, і навіть тригер не може запобігти її поведінці. Я хотів би знати вашу думку про кожен із цих сценаріїв.
Ілля:
Добре, почнемо з можливих сценаріїв економічного хаосу. Як ви згадали, у ** є три ризики: скомпрометація робочих місць, отримання хакерами суперінтелекту та вихід систем з-під контролю. **Економічний хаос — це дійсно ситуація, з якою ми вже знайомі, оскільки деякі робочі місця вже постраждали або знаходяться під загрозою.
Іншими словами, певні завдання можна автоматизувати. Наприклад, якщо ви програміст, Copilot може написати для вас функції. Хоча це відрізняється від випадку з художниками, оскільки багато видів економічної діяльності художників були замінені певними генераторами зображень.
Я не думаю, що це справді просте запитання. **Незважаючи на створення нових робочих місць, економічна невизначеність зберігатиметься ще тривалий час. Я не впевнений, чи це так. **
У будь-якому випадку, однак, нам потрібно щось, щоб згладити перехід до натиску нових професій, навіть якщо таких професій ще немає. Це потребує уваги влади та соціальної системи.
Тепер поговоримо про хакерство. Так, це складне питання. ШІ справді потужний, і погані хлопці можуть використовувати його потужно. Нам потрібно застосувати структуру, подібну до інших дуже потужних і небезпечних інструментів.
Зауважте, що сьогодні ми говоримо не про штучний інтелект, а про зростаючі можливості з часом. Зараз ми перебуваємо на найнижчій точці, але коли ми туди дійдемо, це буде дуже сильно. ** Цю технологію можна використовувати в неймовірних цілях, її можна використовувати для лікування хвороб, але вона також може створювати хвороби, гірші за будь-які попередні.
Тому нам потрібні структури для контролю за використанням цієї технології. Сем, наприклад, подав їм документ, у якому пропонується подібна до МАГАТЕ структура для контролю над ядерною енергією для контролю над дуже потужним штучним інтелектом. **
ведучий:
Останнє питання стосується надрозумного штучного інтелекту, який виходить з-під контролю. Можна сказати, що це стане величезною проблемою. Чи є помилкою створювати надрозумний штучний інтелект, яким ми не знаємо, як контролювати.
Сам:
Я можу додати деякі моменти. Звичайно, я повністю згоден з останнім реченням.
Що стосується економіки, мені важко передбачити майбутні події. Я думаю, це тому, що зараз у світі надлишковий попит, і ці системи справді добре допомагають досягати результатів. Але в більшості випадків сьогодні не всі завдання вони можуть виконати.
**Я думаю, що в короткостроковій перспективі все виглядає добре, і ми побачимо значне зростання продуктивності. **Якби ми могли зробити програмістів удвічі продуктивнішими, кількість коду, необхідного у світі, збільшилася б більш ніж утричі, тому все виглядає добре.
У довгостроковій перспективі я думаю, що ці системи справлятимуться зі все більш складними завданнями та категоріями робіт. Деякі з цих робіт можуть зникнути**, але інші стануть більше схожими на роботи, які справді потребують людей і людських стосунків. **Люди дуже хочуть, щоб люди грали ці ролі.
Ці ролі можуть бути неочевидними. Наприклад, коли Deep Blue переміг Гаррі Каспарова, світ вперше побачив штучний інтелект. У той час усі казали, що з шахами покінчено, і ніхто більше не буде грати в шахи, бо це не має сенсу.
Проте ми згодні, що шахи ніколи не були такими популярними. Люди сильніші, просто очікування завищені. Ми можемо використовувати ці інструменти для вдосконалення власних навичок, але люди все ще люблять грати в шахи, і вони все ще піклуються про інших людей.
Ви згадали, що Доллі може створювати чудове мистецтво, але люди все одно піклуються про людей, які стоять за мистецтвом, яке вони хочуть купити, і всі ми вважаємо, що ці творці особливі та цінні.
Візьмемо як приклад шахи, так само як люди приділяють більше уваги людським шахам, більше людей дивляться людські шахи, ніж будь-коли раніше. Однак дивитися матч двох ШІ мало хто хоче. Тож я думаю, що це будуть усі ці непередбачувані фактори. **Я думаю, що люди жадають диференціації (між людьми та машинами). **
Потреба створити щось нове, щоб отримати статус, завжди буде існувати, але вона проявлятиметься зовсім по-іншому. Б’юся об заклад, що через 100 років роботи будуть зовсім іншими, ніж сьогодні, і багато з цих речей будуть дуже схожими. Але я дійсно згоден зі словами Іллі: **Що б не сталося, нам потрібен інший тип соціально-економічного контракту, тому що автоматизація досягла неймовірних висот. **
ведучий:
Семе, ти нещодавно підписав петицію, яка закликає серйозно сприймати екзистенціальну загрозу штучного інтелекту. Можливо, такі компанії, як OpenAI, повинні вжити заходів для вирішення цієї проблеми.
Сам:
Я справді хочу підкреслити, що ми тут не говоримо про сучасні системи, чи моделі навчання малих стартапів, чи спільноти з відкритим кодом.
Я вважаю, що було б помилкою запроваджувати суворе регулювання сфери прямо зараз або намагатися уповільнити неймовірні інновації. Справді не хочеться створювати суперечливий суперінтелект, який здається незаперечним. **Я вважаю, що світ має сприймати це не як науково-фантастичний ризик, який ніколи не з’явиться, а як те, з чим нам, можливо, доведеться мати справу в наступне десятиліття. Потрібен час, щоб звикнути до деяких речей, але це буде не буде довго. **
Тому ми придумали ідею, і, сподіваюся, кращу. Якщо ми зможемо побудувати глобальну організацію з найвищим рівнем обчислювальної потужності та передових технологій, можна розробити структуру для ліцензування моделей і аудиту їх безпеки, щоб переконатися, що вони проходять необхідні тести. Це допоможе нам розглядати цю проблему як дуже серйозний ризик. Ми робимо щось подібне з атомною енергетикою.
Чи прискорить ШІ наукові відкриття в майбутньому? Лікувати хвороби, вирішувати кліматичні проблеми?
ведучий:
Поговоримо про переваги. У цьому науковому середовищі, в якому ми перебуваємо, мені цікаво роль штучного інтелекту. Через кілька років, можливо, в майбутньому, нам доведеться щось науково відкрити.
Сам:
**Це те, що мене особисто найбільше хвилює в ШІ. **Я думаю, що відбувається багато захоплюючих речей, величезні економічні переваги, величезні переваги для охорони здоров’я. Але насправді штучний інтелект може допомогти нам зробити деякі наукові відкриття, які зараз неможливі. Ми хотіли б дізнатися про таємниці Всесвіту і навіть більше. Я справді вірю, що науково-технічний прогрес є єдиним стійким способом зробити життя кращим, а світ кращим.
Якщо ми можемо розробити багато нових наукових і технологічних досягнень, я думаю, ми вже бачили початок людей. Використовуйте ці інструменти для підвищення ефективності. Але якщо ви уявите собі світ, де ви можете сказати: «Привіт, я можу допомогти вилікувати всі хвороби», і це допоможе вам вилікувати всі хвороби, цей світ може бути кращим місцем. Я не думаю, що ми так далеко від цього.
ведучий:
Окрім хвороб, ще однією серйозною проблемою є зміна клімату, вирішити яку дуже складно. Але я не думаю, що буде особливо важко впоратися зі зміною клімату, коли ми матимемо дійсно потужні суперрозумні системи.
Ілля:
Так, вам потрібно багато вловлювати вуглець. Вам потрібна енергія для уловлювання вуглецю, і вам потрібна технологія для його створення. Якщо ви можете прискорити науку, вам потрібно багато будувати. Прогрес – це те, на що здатний потужний штучний інтелект, і ми можемо досягти передового уловлювання вуглецю набагато швидше. Це може швидше отримати дуже дешеву електроенергію, ми можемо швидше дістатися до дешевшого виробництва. Тепер об’єднайте всі три: дешеву електроенергію, дешеве виробництво та вдосконалене уловлювання вуглецю, і тепер ви створите їх багато, і тепер ви висмоктуєте весь цей надлишок CO2 з атмосфери.
**Якщо у вас є сильний штучний інтелект, це значно прискорить прогрес у науці та інженерії. **Це значно полегшить планування сьогодні. Я вважаю, що це сприятиме прискоренню прогресу. Це свідчить про те, що ми повинні мріяти про більше. Ви можете собі уявити, що якби ви змогли спроектувати систему, ви могли б попросити її розповісти вам, як виробляти великі обсяги чистої енергії за низькими витратами, як ефективно вловлювати вуглець, і направити вас у будівництві заводу, який би виконував ці речі. . Якщо ви можете досягти цього, ви також зможете досягти успіху в багатьох інших сферах.
Чудовий чатGPT
ведучий:
Почувши, що ви не думали, що ChatGPT буде настільки поширеним, мені цікаво, чи є приклади, коли інші люди були щиро здивовані його цінністю та можливостями.
Ілля:
Я був дуже здивований і радий, коли мої батьки розповіли мені, як їхні друзі використовують ChatGPT у повсякденному житті. Важко вибрати одну з багатьох привабливих історій, які демонструють блиск людської творчості та те, як люди використовують цей потужний інструмент.
Що стосується сфери освіти, це було чудово для нас, бачити так багато людей, які пишуть слова, які змінюють їх життя, як це, це була справжня зміна для мене, тому що тепер я можу навчитися чому завгодно, я дізнаюся конкретні речі або кажу те, чого я не знав знаю, як робити раніше, я знаю зараз.
Особисто я можу бачити, як люди навчаються по-новому та краще, і уявляти, як це буде через кілька років, це дуже приємно та красиво. З такою швидкістю ми зовсім не очікували, що це станеться, і це справді дивно.
Потім є цікава історія, яку я почув лише вчора. Кажуть, що чоловік щовечора дві години писав зі своїми дітьми казки перед сном. Ці історії улюблені всіма дітьми, і це стає особливим моментом. Вони чудово проводили час щовечора.
Питання від аудиторії:
Сем: Не вистачає слів...
Ілля:
Стосовно питання про моделі з відкритим і не відкритим вихідним кодом, нам не потрібно думати в двійкових чорно-білих термінах. Це ніби існує таємне джерело, яке ви ніколи не зможете знову відкрити.
**Можливо, одного разу з’явиться модель з відкритим кодом, яка повторюватиме можливості GPT-4, але цей процес займе час, і до того часу така модель може стати більш потужною моделлю у великій компанії. **Тому завжди буде розрив між моделлю з відкритим кодом і приватною моделлю, і цей розрив може поступово збільшуватися. Обсяг роботи, проектування та досліджень, необхідних для створення такої нейронної мережі, продовжуватиме збільшуватися.
Таким чином, **навіть якщо існують моделі з відкритим кодом, вони все рідше створюватимуться невеликою групою відданих дослідників та інженерів, це буде лише одна компанія, одна велика компанія (сприяє відкритому коду). **
Сам:
Я вважаю, що це дуже справедливе і важливе питання. Найскладніша частина нашої роботи — збалансувати величезний потенціал штучного інтелекту з пов’язаними з ним серйозними ризиками. Нам потрібно приділити час, щоб обговорити, чому ми стикаємося з цими ризиками і чому вони в першу чергу.
Я справді вважаю, що все виглядає краще, коли ми озирнемося назад на сьогоднішній рівень життя та нашу більшу терпимість до людей. У порівнянні з тим, що було 500 чи 1000 років тому, умови життя людей значно покращилися. Ми запитуємо себе, чи можете ви уявити людей, які живуть у крайній бідності? Чи можете ви уявити собі людей, які страждають від хвороб? Чи можете ви уявити ситуацію, коли не всі добре освічені? Це реалії варварських часів.
**Хоча ШІ створює певні ризики, ми також бачимо його потенціал для покращення нашого життя, просування наукових досліджень і вирішення глобальних проблем. **
Нам потрібно продовжувати відповідально розвивати штучний інтелект із запровадженням регулятивних заходів для забезпечення належного вирішення питань безпеки та етики. Наша мета — зробити штучний інтелект інструментом для розвитку людства, а не загрозою. Це вимагає наших спільних зусиль, включаючи участь технічної спільноти, уряду та всіх сторін у суспільстві, щоб створити стійку та етичну основу для розвитку штучного інтелекту.
Як це зробити, я також думаю, що це як нестримний прогрес. Технологія не стоїть на місці, вона продовжує розвиватися. Отже, як велика компанія, ми повинні з’ясувати, як управляти пов’язаними з цим ризиками.
Частково це пояснюється тим, що ризик і підхід, необхідний для його вирішення, є надзвичайними. Ми повинні були створити структуру, відмінну від традиційних структур. У нас є обмеження прибутку, і я вважаю, що стимули є важливим фактором. Якщо ви розробите правильні стимули, це часто може привести до бажаної поведінки.
Тому ми намагаємося, щоб усе працювало добре і не приносило більшого чи меншого прибутку. У нас немає такої системи заохочення, як у таких компаній, як Facebook, що, на мою думку, є чудовим. Люди у Facebook працюють у такій структурі заохочення, але ця структура має певні проблеми.
Ми намагаємося накопичувати досвід через AGI. Як часто згадував Ілля, ми спочатку намагалися випробувати AGI, коли створювали компанію, а потім створювали структуру прибутку. Тому нам потрібно знайти баланс між вимогами до обчислювальних ресурсів і зосередитися на місії. Одна з тем, яку ми обговорюємо, полягає в тому, яка структура дозволяє нам з ентузіазмом сприймати регулювання, навіть коли воно завдає нам найбільшої шкоди.
Настав час,** ми запроваджуємо глобальне регулювання, яке матиме найбільший вплив на нас. **Звичайно, ми дотримуємося правил, я думаю, що коли люди в групі ризику, їм легше поводитися добре, їм легше шукати мету. Тому я думаю, що власники цих провідних компаній відчувають це зараз, і ви побачите, як вони реагують інакше, ніж компанії соціальних мереж. Я вважаю, що всі сумніви і побоювання виправдані. Ми щодня боремося з цією проблемою, і на неї немає простого рішення.
Ілля:
Розрив між згаданими вами моделями справді є проблемою.
Я маю на увазі, що зараз у нас є GPT-4, ви знаєте, що ми навчаємося, ви маєте доступ до GPT-4,** і ми дійсно працюємо над наступною моделлю майбутнього. **
Можливо, я можу описати цю прогалину таким чином: оскільки ми продовжуємо створювати та вдосконалювати моделі штучного інтелекту з розширеними можливостями, існує ще більша прогалина, яка вимагає довших періодів тестування та часу. Ми працюємо з командою, щоб зрозуміти обмеження моделі, і використовувати всі способи, які ви знаєте, якомога більше, але ми також поступово розширюємо модель.
Наприклад, тепер GPT-4 має можливості візуального розпізнавання, а ви (версія, яку ви використовуєте) не запустили цю функцію, оскільки остаточна робота не завершена. Але скоро ми цього досягнемо. Тож я думаю, що це відповідь на ваше запитання, можливо, не в надто далекому майбутньому.
*Примітка: Василіск Роко — це натяк на онлайн-дискусію та мисленнєвий експеримент із гіпотезами про майбутній суперінтелект. *
Ілля:
Хоча Василіск Рокко не викликає у нас особливого занепокоєння, ми точно дуже стурбовані суперінтелектом.
Напевно, не всі, навіть не всі в аудиторії розуміють, що ми розуміємо під надінтелектом.
Ми маємо на увазі можливість одного дня побудувати комп’ютер, кластер комп’ютерів у формі графічних процесорів, який розумніший за будь-кого та здатний проводити науку та дослідження швидше, ніж великі групи досвідчених вчених та інженерів. .
Це божевілля, і це матиме величезний вплив.
Він може спроектувати наступну версію системи ШІ та створити дуже потужний ШІ. Тому наша позиція полягає в тому, що **суперінтелект має далекосяжні наслідки, він може мати дуже позитивні наслідки, але він також дуже небезпечний, і ми повинні бути обережними з цим. **
Саме тут використовується згаданий вами підхід МАГАТЕ (Міжнародне агентство з атомної енергії) для дуже передових передових систем і суперінтелекту в майбутньому. Нам потрібно провести багато досліджень, щоб використати потужність суперінтелекту, щоб відповідати нашим очікуванням, на нашу користь і на благо людства.
Це наша позиція щодо суперінтелекту, який є головним викликом суперінтелекту, що стоїть перед людством.
Озираючись на еволюційну історію людини, одноклітинний реплікатор з’явився приблизно 4 мільярди років тому. Потім, протягом мільярдів років, виникла різноманітність різних одноклітинних організмів. Приблизно мільярд років тому почало зароджуватися багатоклітинне життя. Сотні мільйонів років тому на землі з'явилися рептилії. Ссавці з'явилися приблизно 60 мільйонів років тому. Близько 1 мільйона років тому з'явилися примати, а потім і Homo sapiens. Через 10 тисяч років з'явилася писемність. Потім відбулися аграрна революція, промислова революція та технічна революція. Тепер у нас нарешті є AGI, фінал суперінтелекту та наш головний виклик.
Сам:
Я вважаю, що вивчення інформатики є цінним у будь-якому випадку.
Хоча я майже ніколи не пишу код сам**, я вважаю вивчення інформатики одним із найкращих речей, які я коли-небудь робив. Це навчило мене думати та вирішувати проблеми, навички, які дуже корисні в будь-якій сфері. **
Навіть якщо через 10-15 років робота комп’ютерного програміста буде виглядати інакше, навчитися вчитися є однією з найважливіших навичок, зокрема швидко вивчати нові речі, передбачати майбутні тенденції, бути адаптивним і стійким, розуміти потреби інших і як бути корисним.
Тому немає жодних сумнівів, що характер роботи зміниться, але я не можу уявити світ, де люди не знаходять часу, щоб зробити щось, що створює цінність для інших, і всі переваги, які це пов’язано. Можливо, у майбутньому ми будемо дбати про те, у кого крутіша галактика, але певні хороші речі (наприклад, створення вартості) не зміняться.
Ілля:
Я маю на увазі, якнайкраще.