Автор: MarcAndreessen, засновник a16z; переклад: Jinse Finance cryptonaitive&ChatGPT
Настала ера штучного інтелекту, і люди панікують з цього приводу.
На щастя, я тут, щоб повідомити хороші новини: штучний інтелект не знищить світ, він може його врятувати.
По-перше, короткий вступ до того, що таке штучний інтелект: процес застосування математики та програмного коду, щоб навчити комп’ютери розуміти, синтезувати та генерувати знання, як люди. Штучний інтелект — це програма, як і будь-яка інша комп’ютерна програма — вона працює, отримує вхідні дані, обробляє їх і генерує вихідні дані. Результати штучного інтелекту дуже корисні в різних сферах, від програмування до медицини, права та творчого мистецтва. Нею, як і будь-якою іншою технологією, володіють і контролюють люди.
Короткий опис штучного інтелекту: це не те, що у фільмах, де програмне забезпечення-вбивця та роботи раптово оживають і вирішують урізати людей або іншим чином знищити все.
Коротший опис штучного інтелекту: це може бути способом покращити все, що нам важливо.
**Чому ШІ може покращити все, що нам важливо? **
Основний висновок численних досліджень, проведених у сфері соціальних наук протягом багатьох років, полягає в тому, що людський інтелект може призвести до різких покращень у всіх сферах життя. Розумніші люди досягають кращих результатів майже в усіх сферах: академічні досягнення, продуктивність у роботі, кар’єрний статус, дохід, креативність, фізичне здоров’я, довголіття, навчання новим навичкам, вирішення складних завдань, лідерство, успіх у підприємницькій діяльності, вирішення конфліктів, розуміння прочитаного, прийняття фінансових рішень , Розуміння поглядів інших, Творче мистецтво, Результати батьківства та Задоволеність життям.
Крім того, людський інтелект є тим важелем, який ми тисячоліттями використовували для створення нашого світу: науки, техніки, математики, фізики, хімії, медицини, енергетики, архітектури, транспорту, зв’язку, мистецтва, музики, культури, філософії, етики та моралі. Без застосування інтелекту в усіх цих сферах ми все ще могли б жити в глинобитних хатинах, намагаючись вижити в бідності сільського господарства. Натомість за останні 4000 років ми використали інтелект, щоб підвищити свій рівень життя приблизно в 10 000 разів.
Штучний інтелект дає нам можливість у майбутньому покращити різноманітні результати інтелекту — від створення нових ліків до вирішення проблеми зміни клімату та технологій, що дозволяють здійснювати міжзоряні подорожі — шляхом значного вдосконалення людського інтелекту.
Процес посилення людського інтелекту за допомогою штучного інтелекту вже почався. Штучний інтелект з’явився навколо нас у різних формах, наприклад у різних комп’ютерних системах керування, а зараз є широкомасштабні мовні моделі штучного інтелекту, такі як ChatGPT, і відтепер він буде Швидке прискорення - якщо ми це дозволимо.
У нашу нову еру штучного інтелекту:
• Кожна дитина матиме репетитора ШІ з безмежним терпінням, безмежним співчуттям, безмежними знаннями та безмежною допомогою. Цей наставник зі штучним інтелектом буде поруч із кожною дитиною, коли вона росте, допомагаючи їй повністю розкрити свій потенціал і даруючи нескінченну любов.
• Кожен матиме помічника/тренера/наставника/тренера/радника/терапевта з безмежним терпінням, безмежним співчуттям, безмежним знанням і безмежною допомогою. Цей помічник зі штучним інтелектом буде поруч із життєвими можливостями та викликами, максимізуючи результати кожного.
• У кожного вченого буде помічник/співпрацівник/партнер зі штучним інтелектом, здатний значно розширити сферу його наукових досліджень і досягнень. Таким буде світ кожного художника, інженера, бізнесмена, лікаря та фельдшера.
• Кожен керівник — генеральний директор, урядовець, президент некомерційної організації, спортивний тренер, вчитель — зробить те саме. Ефект посилення кращого прийняття рішень лідерами величезний, тому збільшення інтелекту є, мабуть, найважливішим.
• Зростання продуктивності в економіці значно прискориться, сприяючи економічному зростанню, створенню нових галузей промисловості, створенню нових робочих місць і зростанню заробітної плати, що призведе до нової ери матеріального процвітання на Землі.
• Наукові відкриття, нові технології та нові ліки різко поширюватимуться, оскільки штучний інтелект допоможе нам далі декодувати закони природи та використовувати їх на нашу користь.
• Мистецтво увійде в золотий вік, оскільки художники, музиканти, письменники та режисери, які працюють за допомогою штучного інтелекту, зможуть реалізувати свої бачення швидше та в більших масштабах, ніж будь-коли раніше.
• Я навіть думаю, що штучний інтелект покращить бойові дії, коли це буде потрібно, значно зменшивши рівень смертності під час війни. Кожна війна характеризується дуже обмеженими людськими лідерами, які приймають жахливі рішення під надзвичайним тиском і з обмеженою інформацією. Військові командири та політичні лідери тепер матимуть радників зі штучним інтелектом, які допоможуть їм приймати кращі стратегічні та тактичні рішення, які мінімізують ризик, помилки та непотрібне кровопролиття.
• Коротше кажучи, усе, що сьогодні люди роблять за допомогою свого природного інтелекту, можна зробити краще за допомогою штучного інтелекту, і ми зможемо вирішувати нові виклики, які неможливо вирішити без штучного інтелекту, від лікування всіх хвороб до міжзоряних подорожей.
• І справа не тільки в інтелекті! Можливо, найбільш недооціненою якістю ШІ є його людський дотик. Мистецтво зі штучним інтелектом дає свободу створювати та ділитися своїми художніми ідеями тим, хто інакше не мав би технічних навичок. Розмова з чуйним другом, який працює зі штучним інтелектом, насправді може покращити його здатність справлятися з труднощами. І порівняно з людьми медичні чат-боти зі штучним інтелектом вже більш чуйні. Штучний інтелект з нескінченним терпінням і співчуттям зробить світ теплішим і дружнішим.
Ставки тут високі, а можливості величезні. Штучний інтелект, мабуть, є найважливішою і найкращою річчю, яку коли-небудь бачила наша цивілізація, принаймні нарівні з електрикою та мікрочіпами, і, можливо, навіть кращим за них.
Розвивати та популяризувати штучний інтелект — і триматися подалі від ризиків, яких нам слід побоюватися, — наш моральний обов’язок перед собою, перед нашими дітьми та перед нашим майбутнім.
Ми заслуговуємо на те, щоб жити в кращому світі зі штучним інтелектом, і тепер ми можемо це зробити.
**То чому паніка? **
Всупереч цій позитивній точці зору, поточна публічна дискусія про штучний інтелект сповнена паніки та параної.
Ми чуємо всілякі заяви про те, що штучний інтелект знищить усіх нас, розладнає наше суспільство, забере наші робочі місця, спричинить величезну нерівність і дозволить злим діячам робити жахливі речі.
Чому ця різниця в потенційних результатах, від майже утопічних до жахливо антиутопічних?
**Історично склалося так, що кожна важлива нова технологія, від лампочки до автомобіля, від радіо до Інтернету, викликала моральну паніку — соціальну інфекцію, яка змушує людей вірити, що нова технологія знищить світ або суспільство, або Обидва загинуть. **Добрі люди з Archives of Pessimism задокументували ці десятиліття епізодів моральної паніки, спричинених технологіями; їхня історія чітко демонструє цю закономірність. Як виявилося, нинішня паніка навколо штучного інтелекту навіть не перша.
Зараз справді існує багато нових технологій, які призводять до небажаних результатів — часто технологій, які мають величезну користь для нашого добробуту. Отже, це не означає, що наявність моральної паніки означає, що немає про що турбуватися.
Але **моральна паніка за своєю суттю ірраціональна — вона перебільшує те, що може бути законним занепокоєнням, до рівня істерії, що, за іронією долі, ускладнює нам протистояти справді серйозним проблемам. **
Зараз ми перебуваємо в повній моральній паніці щодо ШІ.
Ця моральна паніка була використана кількома суб’єктами для стимулювання політичних дій – наполягаючи на нових обмеженнях, правилах і законах щодо ШІ. Ці актори публічно говорять про небезпеку штучного інтелекту з надзвичайною драматизацією — вони підживлюють і ще більше підігрівають моральну паніку — всі вони представляють себе безкорисливими захисниками загального блага.
Але чи справді вони такі?
Вони праві чи ні?
АІ баптисти та самогонники
Економісти помітили давню модель таких реформаторських рухів. Учасників цих рухів можна розділити на дві категорії – «баптисти» та «бутлегери», виходячи з історичного прикладу сухого закону в США у 1920-х роках:
• «Баптисти» були справжніми віруючими соціальними реформаторами, які глибоко й емоційно вірили (хоча не обов’язково інтелектуально), що для запобігання соціальній катастрофі необхідні нові обмеження, правила та закони. У випадку заборони ці актори зазвичай були щирими християнами, які вірили, що алкоголь руйнує моральну структуру суспільства. Що стосується ризику штучного інтелекту, то ці актори — це люди, які щиро вірять, що штучний інтелект створює той чи інший ризик для існування — якщо ви поставите їх на детектор брехні, вони справді так і є.
• Контрактники — це корисливі оппортуністи, які отримують вигоду від нових обмежень, правил і законів у міру їх впровадження та ізолюють себе від конкурентів. Для сухого закону це були контрабандисти, які заробили величезні статки на нелегальному продажу алкоголю в той час, коли легальний продаж алкоголю був заборонений. Щодо ризику штучного інтелекту, це головні керівники, які могли б заробити більше грошей, якби створили своєрідний картель санкціонованих урядом постачальників штучного інтелекту, захищених від стартапів і конкуренції з відкритим кодом. Керівники – це версія програмного забезпечення «занадто велика, щоб банк "збій".
Цинік міг би заперечити, що деякі уявні баптисти також є бутлегерами — особливо ті, чиї університети, аналітичні центри, групи активістів і засоби масової інформації платять їм зарплату або отримують гранти на атаку ШІ. Якщо вам платять зарплату або грант, щоб розпалити паніку ШІ, ви, ймовірно, контрабандист.
Проблема бутлегерів у тому, що вони виграють. Баптисти — наївні ідеологи, а бутлегери — цинічні оператори, тому результатом таких реформаторських рухів зазвичай є те, що бутлегери отримують те, чого хочуть — регулятивний контроль, захист від конкуренції, формування монополії, тоді як баптистів бентежило прагнення до соціального покращення.
Щойно ми пережили шокуючий приклад – банківські реформи після світової фінансової кризи 2008 року. Баптисти кажуть нам, що нам потрібні нові закони та правила, щоб розбити банки, «занадто великі, щоб збанкрутувати», щоб запобігти повторенню подібної кризи. Тож Конгрес США прийняв Закон Додда-Френка 2010 року, який рекламувався як такий, що відповідає цілям баптистів, але насправді цим скористалися контрабандисти – великі банки. Підсумок полягає в тому, що банки, які були занадто великими, щоб збанкрутувати в 2008 році, тепер стали ще більшими.
Тож на практиці, навіть якби баптисти були щирими, навіть якби баптисти мали рацію, вони були б використані хитрими та жадібними контрабандистами для власної вигоди.
Це саме те, що нині стимулює регулювання ШІ.
Проте недостатньо лише ідентифікувати дійових осіб і звинуватити їхні мотиви. Ми маємо оцінити це проти аргументів баптистів і бутлегерів.
**Ризик ШІ 1: чи вб’є нас штучний інтелект? **
**Першим і найбільш раннім ризиком кінця суду є страх, що ШІ вирішить убити людство. **
Наш страх, що сама технологія повстане і знищить нас, укорінився в нашій культурі. Греки висловлювали цей страх через міф про Прометея - Прометей приніс людству руйнівну силу вогню та загалом технології ("techne"), тому Прометей був увічнений богами, закатованими. Пізніше Мері Шеллі створила цю міфічну версію нас самих для сучасних людей у своєму романі «Франкенштейн», у якому ми розвиваємо технологію безсмертя, яка потім повстає і намагається нас знищити. Звичайно, суттєвим для того, щоб налякати газетне висвітлення штучного інтелекту, є нерухоме зображення сяючого робота-вбивці з червоними очима з фільму Джеймса Кемерона «Термінатор».
Передбачувана еволюційна мета цього міфу полягає в тому, щоб спонукати нас серйозно розглянути потенційні ризики нових технологій — зрештою, вогонь справді може бути використаний, щоб спалити цілі міста. Але подібно до того, як вогонь одночасно є основою сучасної цивілізації, який використовується, щоб зігріти нас і захистити нас у холодному та ворожому світі, цей міф ігнорує більші переваги більшості, якщо не всіх, нових технологій і насправді спричиняє хаос Сексуальні емоції, а не раціональний аналіз. Те, що стародавні так панікували, не означає, що ми також повинні панікувати; ми можемо використовувати розум.
**Я вважаю, що ідея про те, що ШІ вирішить вбивати людей, є глибокою помилкою категорії. **Штучний інтелект — це не жива істота, яка еволюціонувала протягом мільярдів років, щоб брати участь у боротьбі за виживання найбільш пристосованих, як тварини чи ми самі. Це комп’ютери з математичним кодом, які створили, володіють, використовують і контролюють люди. Вважати, що в якийсь момент він розвине власний розум і вирішить, що у нього є мотив, який спонукає його вбити нас, — це хвиля забобонів.
Коротше кажучи, **ШІ не має волі, немає мети, він не хоче вбивати вас, тому що він не живий. ШІ — це машина, не більш жива, ніж ваш тостер. **
Зараз, мабуть, є ті, хто глибоко вірить у вбивць зі штучним інтелектом – раптове божевільне збільшення висвітлення в ЗМІ гасить їхні жахливі попередження, деякі з яких стверджують, що вивчали цю тему десятиліттями, а тепер жахаються тим, що, як вони знають, порушує. Деякі з цих справжніх віруючих є навіть справжніми новаторами технології. Ці люди виступають за всі види дивних і екстремальних обмежень штучного інтелекту, від заборони розвитку штучного інтелекту до військових авіаударів по центрах обробки даних і ядерної війни. Вони стверджують, що оскільки такі люди, як я, не можуть виключити потенційно катастрофічні наслідки штучного інтелекту в майбутньому, ми повинні прийняти запобіжну позицію, яка може вимагати значного фізичного насильства та смерті, щоб запобігти потенційним ризикам для існування.
Я відповідаю, що їхня позиція ненаукова – які гіпотези можна перевірити? Які факти підтверджують хибність цього припущення? Як ми дізнаємося, що ми потрапили в небезпечну зону? Ці запитання здебільшого залишаються без відповіді, окрім «Ви не можете довести, що цього не станеться!» Насправді, позиції цих баптистів настільки антинаукові та екстремальні — теорія змови про математику та код — що вони назвали фізичне насильство, тому я збираюся зробити те, чого зазвичай не роблю, сумнівайтеся в їхніх мотивах.
Зокрема, я думаю, що відбуваються три речі:
По-перше, пригадайте відповідь Джона фон Неймана на занепокоєння Роберта Оппенгеймера щодо створення ним ядерної зброї, яка допомогла закінчити Другу світову війну та запобігти Третій. "Деякі люди зізнаються у злочинах, щоб заявити про свої злочини", - сказав він. Який найкращий спосіб стверджувати про важливість своєї роботи в перебільшений спосіб, не здаючись зайвим хвалькуватим? Це пояснює непослідовність баптистів, які насправді створюють і фінансують штучний інтелект — стежте за їхніми діями, а не за словами. (Після зустрічі з Оппенгеймером Трумен був ще суворішим: «Не пускайте знову ту плаксу».)
По-друге, деякі баптисти насправді були контрабандистами. Існує ціла кар’єра під назвою «Експерт з безпеки ШІ», «Етик ШІ», «Дослідник ризиків ШІ». Їх робота полягає в тому, щоб бути пророками, і до їхніх заяв слід ставитися належним чином.
По-третє, Каліфорнія відома численними культами, від EST до People's Temple, від Heaven's Gate до Family Manson. Багато з цих, хоча й не всі, культи є нешкідливими і навіть надають допомогу відчуженим, які знаходять у них дім. Але деякі з них настільки небезпечні, що культам часто важко йти по лінії насильства та смерті.
І реальність така, мабуть, очевидна для всіх у районі затоки, що «ризик штучного інтелекту» перетворився на культ, який привернув увагу світових ЗМІ та публічне обговорення. Культ приваблює не лише деяких маргінальних діячів, але й деяких справжніх експертів галузі та чимало багатих донорів — у тому числі донедавна Сема Бенкмана-Фріда. Це розробило цілий набір культових форм поведінки та вірувань.
У цьому культі немає нічого нового - існує давня західна традиція під назвою міленіалізм, яка породила культ Апокаліпсису. Культ «AI Risk» має всі ознаки апокаліптичного культу тисячоліть. З Вікіпедії я зробив деякі доповнення:
«Міленіалізм — це віра групи або руху [пророків ризику штучного інтелекту] в те, що фундаментальна зміна в суспільстві неминуча [поява штучного інтелекту], після якої все зміниться [утопія штучного інтелекту, антиутопія або кінець світу Вважається, що лише драматичні події [заборона штучного інтелекту, авіаудари по центрах обробки даних, ядерні удари по неконтрольованому штучному інтелекту] можуть змінити світ [зупинити штучний інтелект], і вважають, що такі зміни були спричинені або пережиті групою благочестивих і вірних людей. У більшості тисячолітніх епізодів за неминучою катастрофою чи битвою [апокаліпсис або запобігання штучному інтелекту] послідував новий, чистий світ [утопія ШІ]».
Ця модель сект кінця світу настільки очевидна, що я дивуюся, що більше людей цього не бачать.
Не зрозумійте мене неправильно, секти — це весело, їхні письмові матеріали часто креативні та захоплюючі, а їхні члени чарівні на званих вечерях і по телевізору. Але їхні крайні переконання не повинні визначати майбутнє закону та суспільства – і, очевидно, не повинні.
**Ризик 2: ШІ знищить наше суспільство? **
Друга широко розповсюджена ідея щодо ризику штучного інтелекту полягає в тому, що **ШІ знищить наше суспільство, створивши «шкідливі» результати (висловлюючись мовою таких пророків), навіть якщо нас насправді не вб’ють. **
Коротко: **Якщо машини-вбивці не завдають нам шкоди, мова ненависті та дезінформація можуть. **
Це відносно новий апокаліптичний напрямок, який відгалужується від описаного вище руху «ШІ-ризик» і певною мірою домінує над ним. Насправді термінологія ризику штучного інтелекту нещодавно змінилася з «безпеки штучного інтелекту» (термін, який використовують ті, хто хвилюється, що штучний інтелект насправді вб’є нас) на «вирівнювання штучного інтелекту» (термін, який використовують ті, хто турбується про суспільну «шкоду»). . Розчаровані цією зміною, оригінальні спеціалісти з безпеки штучного інтелекту, хоча вони не знають, як це повернути, тепер виступають за перейменування фактичної теми ризиків штучного інтелекту на «AInotkilleveryoneism» (AInotkilleveryoneism), хоча цей термін ще не визнано. Широко прийнято, але принаймні ясно.
Ключовою ознакою пропозиції ШІ щодо суспільних ризиків є її власний термін «вирівнювання ШІ». Приєднатися до чого? людські цінності. Які людські цінності? О, і тут все стає складніше.
Як це сталося, я був свідком подібної ситуації на власні очі – війни в соціальних мережах «довіра та безпека». Зрозуміло лише те, що протягом багатьох років служби соціальних медіа зазнавали сильного тиску з боку урядів і активістів щодо заборони, обмеження, цензури та придушення будь-якого вмісту. А занепокоєння щодо «мови ненависті» (та її математичної аналогії «алгоритмічної упередженості») і «дезінформації» перемістилися безпосередньо з контексту соціальних медіа в нову сферу «вирівнювання ШІ».
Ключові уроки, які я виніс із воєн у соціальних мережах:
З одного боку, немає позиції абсолютної свободи слова. По-перше, кожна країна, включаючи Сполучені Штати, вважає принаймні деякий вміст незаконним. По-друге, існують певні типи контенту, як-от дитяча порнографія та підбурювання до насильства в реальному світі, які вважаються забороненими майже в усіх суспільствах — незалежно від того, легальні чи ні. Таким чином, будь-яка технологічна платформа, яка полегшує або генерує контент – мову – матиме деякі обмеження.
З іншого боку, слизький шлях – це не міф, а неминучість. Після того, як створено рамки для обмеження навіть найбільш кричущого вмісту, наприклад, ненависті, певних образливих термінів або дезінформації, явно неправдивих тверджень (наприклад, «Папа помер»), різні державні установи, групи тиску на активістів і не -урядові органи швидко вимагатимуть посилення цензури та придушення висловлювань, які, на їхню думку, становлять загрозу суспільству та/або своїм особистим уподобанням. Вони робитимуть це способами, які включають кричущі злочини. На практиці цей цикл, здається, триває вічно, підтримуваний ентузіастами офіційних спостерігачів у наших елітних владних структурах. Це відбувається в соціальних мережах протягом десятиліття, і, за деякими винятками, це тільки погіршується.
Отже, зараз є це динамічне формування навколо "вирівнювання ШІ". Її прихильники стверджують, що розуміють мудрість сприйняття мови та ідей, створених штучним інтелектом, які є корисними для суспільства, і забороняють мову та ідеї, створені ШІ, які є шкідливими для суспільства. Її опоненти стверджують, що «Поліція думок» є надзвичайно зарозумілою, владною та часто кричущо злочинною, принаймні у Сполучених Штатах, і фактично намагається стати новою державно-корпоративно-академічною диктатурою авторитетного мовлення, нагадуючи Джорджа Ф. Орвелла. 1984 рік.
Оскільки прихильники як «довіри та безпеки», так і «вирівнювання штучного інтелекту» зосереджені в дуже вузькому сегменті глобального населення, який характеризується прибережною елітою США, до якої входить багато тих, хто працює та пише про індустрію технологій. Як наслідок, багато моїх читачів будуть змушені стверджувати, що значні обмеження на вихід штучного інтелекту необхідні, щоб уникнути руйнування суспільства. Я не буду зараз вас переконувати, я просто скажу, що така потреба і що більшість світу не погоджується з вашою ідеологією та не хоче бачити вашу перемогу.
Якщо ви не згодні з вузькою мораллю, яка наразі нав’язується соціальним медіа та штучному інтелекту через посилені норми мови, ви також повинні знати, що боротьба за те, що штучному інтелекту дозволено говорити/генерувати, буде набагато важливішою, ніж боротьба за цензуру соціальних мереж. набагато важливіше. ШІ, швидше за все, стане керуючим рівнем всього в світі. Те, як йому дозволено функціонувати, мабуть, матиме більше значення, ніж будь-що інше. Ви повинні знати, що кілька ізольованих соціальних інженерів намагаються вирішити, як ШІ повинен працювати зараз, прикриваючись старою риторикою, яка захищає вас.
Коротше кажучи, не дозволяйте поліції думки пригнічувати ШІ.
**Ризик 3: ШІ займе всі наші робочі місця? **
**Існує постійний страх втрати роботи через заміну людської праці машинами в різних формах, таких як механізація, автоматизація, комп’ютеризація чи штучний інтелект. **Це занепокоєння зберігалося протягом сотень років, з моменту появи механічних пристроїв, таких як механічні ткацькі верстати. Хоча кожна нова велика технологія історично призводила до появи більш високооплачуваних робочих місць, кожна хвиля паніки супроводжувалася наративом «цього разу все по-іншому» — цього разу це станеться, цього разу це технологія. Час нарешті завдасть фатальної удар по людській праці. Однак цього так і не сталося.
У недавньому минулому ми пережили два цикли паніки безробіття, спричиненої технологіями: страх аутсорсингу в 2000-х і страх автоматизації в 2010-х. У той час як багато представників ЗМІ, експертів і навіть керівників технологічної галузі протягом двох десятиліть продовжували бити по столу, стверджуючи, що масове безробіття неминуче, наприкінці 2019 року — перед спалахом COVID — можливостей роботи у світі більше, ніж у будь-який момент в історії, і зарплата вища.
Однак ця хибна ідея не зникає.
Звичайно, воно повернулося.
Цього разу ми нарешті маємо технологію, яка забере всі робочі місця та зробить людську працю неактуальною — справжній штучний інтелект. Звичайно, цього разу історія не просто повториться: ШІ призведе до масового безробіття, а не до швидкого економічного зростання, збільшення робочих місць і підвищення зарплат. правильно?
Ні, цього точно не станеться, і якщо штучному інтелекту дозволити розвиватися та поширюватися в економіці, це може призвести до найзахопливішого та найтривалішого економічного буму в історії, з відповідною рекордною кількістю робочих місць і зростанням заробітної плати – саме протилежне тому, чого боялися люди. Причина полягає в наступному.
**Автоматизація вбиває робочі місця Основна помилка теістів називається «оманою сукупної праці». **** Ця помилка полягає в тому, що в економіці в будь-який момент часу має бути виконана фіксована кількість праці, або машинами, або людьми, і якщо це роблять машини, то людям нема чого робити. **
Помилка сукупної праці природним чином виникає з інтуїції, але ця інтуїція помилкова. **Коли технологія використовується у виробництві, ми досягаємо зростання продуктивності — збільшення обсягу виробництва за рахунок зменшення витрат. **Результат – падіння цін на товари та послуги. Оскільки ціни на товари та послуги падають, ми платимо менше, а це означає, що тепер у нас є додаткова купівельна спроможність купувати інші речі. Це збільшує попит в економіці, стимулює нове виробництво — як нових продуктів, так і нових галузей — створюючи нові робочі місця для людей, витіснених машинами. **Результатом є більша економіка, більше матеріального добробуту, більше галузей промисловості, більше продуктів, більше робочих місць. **
Але хороші новини не тільки це. Ми також отримуємо більшу зарплату. Це пояснюється тим, що на рівні окремого працівника ринок визначає винагороду на основі граничної продуктивності працівника. Працівник у промисловості, наповненій технологіями, більш продуктивний, ніж працівник у традиційній галузі. Або роботодавець заплатить більше на основі підвищення продуктивності працівника, або інший роботодавець зробить це з чистих власних інтересів. Результатом є те, що галузі, які впроваджують технології, не тільки збільшать можливості працевлаштування, але й підвищать заробітну плату.
Підсумовуючи, передові технології дозволяють людям працювати ефективніше. Це спричиняє падіння цін на існуючі товари та послуги та зростання заробітної плати. Це, у свою чергу, прискорює економічне зростання та зростання зайнятості, а також стимулює створення нових робочих місць і нових галузей. **Якщо ринкова економіка зможе функціонувати належним чином і технології можна буде вільно впроваджувати, це буде нескінченний висхідний цикл. Як зазначив Фрідман, «людські бажання та потреби невичерпні» — ми завжди хочемо більше, ніж маємо. Ринкова економіка, яка охоплює технології, — це те, як ми наближаємося до досягнення всього, що кожен може собі уявити, але ніколи не досягає. Ось чому технології не знищать робочі місця, ніколи не знищать.
Для тих, хто не стикався з цими ідеями, це шокуючі думки, для розуміння яких може знадобитися деякий час. Але я клянуся, що я їх не вигадую - насправді, ви можете прочитати їх усі в стандартних підручниках з економіки. Я рекомендую розділ Генрі Хезлітта «Прокляття машини» в «Економіці за один урок» і сатиру Фредеріка Бастіа «Петиція свічника», які протестують проти сонця, оскільки воно нечесно конкурує в освітлювальній промисловості. Ми також маємо сучасну версію нашого часу.
Але ви можете подумати, що цього разу все інакше. Цього разу, з появою штучного інтелекту, ми маємо технологію, яка може замінити всю людську працю.
Але, дотримуючись принципів, які я описав вище, уявіть, що б означало, якби всю існуючу людську працю замінити машинами.
Це означало б, що економічне зростання продуктивності злетіло б абсолютно астрономічними темпами, значно перевищуючи будь-який історичний прецедент. Ціни на існуючі товари та послуги впадуть майже до нуля. Добробут споживачів зросте. Споживацька спроможність зросте. В економіці буде сплеск нового попиту. Щоб задовольнити всі нові потреби, підприємці створять запаморочливу кількість нових галузей, нових продуктів і нових послуг і наймуть якомога більше штучного інтелекту та працівників якомога швидше.
Що, якщо штучний інтелект знову замінить цих працівників? Цей цикл повторюватиметься, сприяючи добробуту споживачів, економічному зростанню та зростанню зайнятості та заробітної плати. Це була б лінійна висхідна спіраль, що веде до матеріальної утопії, про яку Адам Сміт і Карл Маркс ніколи не наважувалися мріяти.
Нам повинно пощастити.
**Ризик 4: чи призведе штучний інтелект до серйозної нерівності? **
Говорячи про Карла Маркса, занепокоєння щодо того, що штучний інтелект забирає робочі місця, безпосередньо призводить до наступного заявленого ризику штучного інтелекту, який, ну, Марк, припускає, що штучний інтелект справді забирає всі робочі місця, чи то добре, чи то погано. Отже, чи не призведе той факт, що власник штучного інтелекту отримує всі фінансові винагороди, а звичайні люди нічого не отримають, до величезної та серйозної нерівності в багатстві?
Цілком доречно, це центральна марксистська теза про те, що власники засобів виробництва — буржуазія — неминуче викрадають усі суспільні багатства у тих, хто насправді працює — пролетаріату. Незалежно від того, скільки разів реальність доводила, що це не так, помилка ніколи не вмирає. Але давайте все ж спростуємо.
Недоліком цієї теорії є те, що, як власник частини технології, не у ваших власних інтересах зберігати її та не ділитися нею — насправді, це навпаки, ваш інтерес полягає в тому, щоб продати її якомога більшій кількості клієнтів. . Найбільшим ринком у світі є глобальний ринок, який включає 8 мільярдів людей. Отже, насправді кожна нова технологія — навіть якщо вона починає продавати великі, добре оплачувані корпорації чи заможних споживачів — швидко поширюється, поки не потрапляє в руки найбільшого можливого масового ринку, зрештою охоплюючи людей усієї планети.
Класичним прикладом цього є так званий «секретний план» Ілона Маска в 2006 році - який він, звичайно, оприлюднив публічно - про плани Tesla:
перший крок, побудувати [дорогий] спортивний автомобіль;
Другим кроком є використання грошей, зароблених на першому кроці, для створення доступного автомобіля;
Крок 3, використовуйте гроші, зароблені на кроці 2, щоб побудувати більш доступний автомобіль.
Що, звісно, він і зробив, і став найбагатшою людиною у світі.
Останній пункт є критичним. Чи став би Маск багатшим, якби сьогодні продавав машини лише багатим людям? не буду. Чи був би він багатшим, ніж зараз, якби будував автомобілі лише для себе? звичайно, ні. Ні, він максимізує свій прибуток, продаючи на якомога більшому ринку в усьому світі.
Коротше кажучи, кожен може мати цю річ, як ми бачили в минулому з автомобілями, електрикою, радіо, комп’ютерами, Інтернетом, мобільними телефонами та пошуковими системами. Компанії, які виробляють ці технології, дуже мотивовані знижувати ціни, поки кожен на планеті не зможе їх собі дозволити. Це саме те, що вже відбувається зі штучним інтелектом — саме тому ви можете використовувати його сьогодні на безкоштовному або недорогому сучасному генеруючому штучному інтелекті у формі Microsoft Bing і Google Bard — і це відбуватиметься й надалі. Не тому, що ці постачальники дурні чи щедрі, а саме тому, що вони жадібні - вони хочуть максимізувати розмір ринку і таким чином максимізувати прибуток.
Отже, те, що відбувається, є протилежністю теорії, згідно з якою технології спричиняють концентрацію багатства — окремий користувач технології, який, зрештою, включає кожну людину на планеті, натомість наділений повноваженнями та захоплює більшу частину створеної вартості. Як і у випадку з попередніми технологіями, компанії, які створюють штучний інтелект (припускаючи, що вони повинні працювати на вільному ринку), намагатимуться зробити це реальністю.
Маркс помилявся тоді, помиляється й зараз.
Це не означає, що нерівність не є проблемою нашого суспільства. Це проблема, за винятком того, що вона зумовлена не технологіями, а тими секторами економіки, які є найбільш стійкими до нових технологій і в які уряд найбільше втручається, щоб запобігти впровадженню нових технологій, таких як штучний інтелект, зокрема житло, освіта та охорона здоров'я. **Реальний ризик штучного інтелекту та нерівності полягає не в тому, що штучний інтелект спричинить посилення нерівності, а в тому, що ми не дозволимо використовувати штучний інтелект для зменшення нерівності. **
**Ризик 5: чи штучний інтелект змусить поганих людей робити погані вчинки? **
Наразі я пояснив, що чотири з п’яти найбільш часто згадуваних ризиків штучного інтелекту насправді не є реальними — штучний інтелект не оживе, щоб убити нас, штучний інтелект не знищить наше суспільство, штучний інтелект не зможе керувати до масового безробіття, і ШІ не призведе до нищівного зростання нерівності. Але тепер давайте поговоримо про п’ятий, і це той, з яким **я насправді згоден: ШІ полегшить поганим хлопцям робити погані вчинки. **
У певному сенсі це циклічний аргумент. Технологія – це інструмент. Починаючи з вогню та каменю, інструменти можна використовувати для добра — приготування їжі та будівництва будинків — і для зла — спалювання та побиття. Будь-яка технологія може бути використана в добрих чи поганих цілях. зрозуміло. І ШІ полегшить злочинцям, терористам і ворожим урядам робити погані вчинки, безсумнівно.
Це змусило деяких людей сказати: якщо це так, давайте заборонимо штучний інтелект у цьому випадку, поки не сталося погано. На жаль, штучний інтелект не є такою таємничою речовиною, яку важко отримати, як плутоній. Навпаки, це найдоступніший матеріал у світі – математика та код.
Мабуть, AI коти вийшли з упаковки. Ви можете навчитися створювати штучний інтелект за допомогою тисяч безкоштовних онлайн-курсів, книг, статей і відео, а список видатних реалізацій з відкритим кодом продовжує зростати щодня. ШІ, як повітря, він буде всюди. Щоб це зловити, необхідний рівень тоталітарних репресій був би настільки жорстоким - світовий уряд, який стежить і контролює всі комп'ютери? Озброєні поліцейські на чорних гелікоптерах здійснюють рейд на фальшиві графічні процесори? — У нас не буде суспільства, яке потрібно захищати.
Отже, у нас є два дуже прості способи впоратися з ризиком того, що зловмисники використовують ШІ для поганих вчинків, і саме на цьому ми повинні зосередитися.
**По-перше, у нас є закони, які криміналізують більшість випадків використання штучного інтелекту в цілях зла. ** Злом Пентагону? Це злочин. Вкрасти гроші з банку? Це злочин. Створення біологічної зброї? Це злочин. Здійснити теракт? Це злочин. Нам просто потрібно зосередитися на запобіганні цим злочинам, коли ми можемо, і переслідуванні їх, коли ми не можемо. Нам навіть не потрібні нові закони – я не знаю, чи є справжня справа, яка була порушена за зловмисне використання штучного інтелекту, яке вже не є незаконним. Якщо виявляються нові випадки використання, ми забороняємо це використання. Сертифікат готовий.
Але ви помітите, що я щойно сказав — я сказав, що ми повинні спершу зосередитися на запобіганні злочинам за допомогою ШІ, перш ніж трапляться погані речі — хіба це не означає заборону ШІ? Що ж, є ще один спосіб запобігти такій поведінці, і це використовувати ШІ як інструмент захисту. Той самий штучний інтелект, який дає поганим людям можливість ставити погані цілі, є настільки ж потужним у руках хороших людей — особливо хороших людей, яким доручено запобігати поганим речам.
Наприклад, якщо ви стурбовані тим, що штучний інтелект створює фальшивих людей і фальшиві відео, відповідь полягає в створенні нових систем, які дозволять людям автентифікувати себе та справжній вміст за допомогою криптографічних підписів. Цифрове створення та модифікація справжнього та підробленого контенту існували ще до штучного інтелекту; відповідь полягає не в забороні текстових процесорів і Photoshop — або штучному інтелекті — а у використанні технології для створення системи, яка справді вирішує проблему.
Тож ** другий підхід полягає в тому, що давайте агресивно використовувати штучний інтелект для доброякісних, законних і оборонних цілей. Давайте використовувати штучний інтелект для кіберзахисту, біозахисту, відстеження терористів і всього іншого, що ми робимо, щоб захистити себе, наші спільноти та нашу націю. **
Звичайно, є багато розумних людей в уряді та за його межами, які вже виконують таку роботу, але якщо ми спрямуємо всі поточні зусилля та інтелект, зосереджені на неефективній забороні штучного інтелекту, на використання штучного інтелекту, щоб завадити поганим людям робити погані речі Я вірю, що світ, повний штучного інтелекту. Розумний світ буде більш безпечним, ніж світ, у якому ми живемо сьогодні.
Реальні ризики невпровадження ШІ з максимальною потужністю та швидкістю
Є один останній і реальний ризик ШІ, який може бути найстрашнішим з усіх:
ШІ використовують не лише у відносно ліберальних західних суспільствах, а й у Китаї.
Китай має зовсім інше бачення ШІ, ніж ми. Вони навіть не тримають цього в таємниці, і дуже чітко дали зрозуміти, що вже досягають своїх цілей. І вони не мають наміру обмежувати свою стратегію штучного інтелекту Китаєм – вони мають намір робити це там, де вони надають мережі 5G, пропонують позики «Один пояс, один шлях», пропонують зручні для споживача програми, як-от TikTok, як інтерфейс ШІ для централізованого керування та керування, поширюючи це в будь-який куточок світу.
**Найбільший ризик для штучного інтелекту полягає в тому, що Китай завойовує глобальне домінування в галузі штучного інтелекту, а ми – США та Захід – ні. **
Я пропоную просту стратегію вирішення цієї проблеми — насправді це стратегія, яку прийняв президент Рональд Рейган, коли виграв першу холодну війну з Радянським Союзом.
«Ми виграємо, вони програють».
Замість того, щоб відсунути на другий план безпідставні страхи навколо ШІ-вбивць, шкідливого ШІ, штучного інтелекту, який руйнує робочі місця та створює нерівність, ми в США та на Заході повинні якомога повніше інвестувати в ШІ.
Ми повинні боротися з глобальною гонкою за технологічну перевагу в області штучного інтелекту і переконатися, що Китай не переможе.
У цьому процесі ми повинні якомога швидше й енергійніше впроваджувати ШІ в наші економіки та суспільства, щоб максимізувати його переваги для економічної продуктивності та людського потенціалу.
Це найкращий спосіб компенсувати реальні ризики штучного інтелекту та гарантувати, що наш спосіб життя не буде замінено баченням Китаю.
**що нам робити? **
Я придумав простий план:
• Великим компаніям штучного інтелекту слід дозволити створювати штучний інтелект якомога швидше й агресивніше, але не досягати регуляторної монополії, не створювати захищений урядом картель і бути звільненими від неправдивих заяв про ризики штучного інтелекту для конкуренції. на ринку. Це максимізує технологічні та соціальні переваги дивовижних можливостей цих компаній, перлин сучасного капіталізму.
**• Компанії-стартапи, що займаються штучним інтелектом, повинні мати можливість створювати ШІ якомога швидше та агресивніше. **Вони не повинні ані стикатися з захистом, який отримують великі корпорації від уряду, ані отримувати державну допомогу. Їм слід дозволяти лише змагатися. Якщо стартапи не досягають успіху, їхня присутність на ринку також постійно спонукатиме великі компанії до успіху — а наша економіка та суспільство все одно виграють.
**• Слід дозволити ШІ з відкритим вихідним кодом вільно поширюватися та конкурувати з великими компаніями та стартапами з використанням ШІ. **Відкритий код не повинен мати регуляторних бар’єрів. Навіть якщо відкритий код не виграє компанії, його широка доступність є благом для студентів у всьому світі, які хочуть навчитися створювати та використовувати штучний інтелект, щоб стати частиною технологій майбутнього та гарантувати, що незалежно від того, ким вони є чи скільки грошей у них є, ШІ працюватиме на них доступно.
**• Щоб протистояти ризику того, що зловмисники використовують штучний інтелект для поганих вчинків, уряди в партнерстві з приватним сектором мають активно брати участь у кожному аспекті потенційних зон ризику, використовуючи штучний інтелект для максимізації захисту суспільства. ** Це не повинно обмежуватися ризиками штучного інтелекту, а включати більш загальні проблеми, такі як недоїдання, хвороби та кліматичні проблеми. ШІ може бути надзвичайно потужним інструментом для вирішення проблем, і ми повинні думати про нього саме так.
**• Щоб запобігти ризику досягнення Китаєм глобального домінування штучного інтелекту, ми повинні повною мірою використовувати потужність нашого приватного сектору, науково-дослідних установ і уряду для спільного сприяння абсолютному домінуванню штучного інтелекту США та Заходу в глобальному масштабі. , і зрештою навіть у Китаї. Ми виграємо, вони програють. **
Ось як ми можемо використовувати штучний інтелект, щоб врятувати світ.
Настав час діяти.
Легенди та герої
Я закінчую двома простими твердженнями.
Розвиток штучного інтелекту почався в 1940-х роках, одночасно з винаходом комп'ютерів. Перша наукова стаття про нейронні мережі — архітектуру штучного інтелекту, який ми маємо сьогодні — була опублікована в 1943 році. За останні 80 років ціле покоління вчених зі штучного інтелекту народилося, пішло до школи, працювало і в багатьох випадках померло, так і не побачивши винагороди, яку ми отримуємо зараз. Вони легенди, кожна з них.
Сьогодні зростає кількість інженерів, багато з яких молоді, чиї бабусі чи дідусі, можливо, бабусі чи прадіди беруть участь у створенні ідей штучного інтелекту, працюють над тим, щоб втілити штучний інтелект в життя, незважаючи на стіну паніки та песимізму лиходіїв. Я не думаю, що вони безрозсудні чи негідники. Вони герої, усі. Ми з моєю компанією дуже раді підтримати якомога більше з них, і ми будемо підтримувати їх та їхню роботу на 100%.
** «Протягом багатьох років прихильники тисячоліть часто [прогнози ризиків штучного інтелекту постійно] намагалися передбачити точний час таких майбутніх подій, часто через інтерпретацію різних знаків і провісників. Однак історичні прогнози майже завжди зазнавали невдачі [наразі немає достовірних доказів того, що штучний інтелект вбиватиме людей]. **Однак їхні шанувальники [прогнозуючих ризик ШІ] зазвичай намагаються переглянути пояснення, щоб узгодити [потенційні ризики в майбутньому ШІ], коли відбуваються відповідні події».
Прихильники культу «ризику штучного інтелекту» можуть зі мною не погоджуватися і наполягати на тому, що вони раціональні, науково обґрунтовані, а я — послідовник із промитими мізками. Однак зауважте, що я не стверджую, що «штучний інтелект ніколи не стане загрозою для людства». Я просто зазначаю, що на сьогоднішній день немає жодних доказів, які підтверджують тезу «ШІ нас уб’є». Замість того, щоб впадати в культову паніку та реакцію, ми повинні робити раціональні оцінки на основі наявних доказів.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Нагородити
подобається
1
Поділіться
Прокоментувати
0/400
Don’tShortInABull
· 2023-06-07 08:20
Тільки штучний інтелект може по-справжньому реалізувати соціалістичне суспільство. Я так думав, коли навчався в початковій школі
Засновник a16z Ванзі Чанвен: Чому ШІ врятує світ
Автор: MarcAndreessen, засновник a16z; переклад: Jinse Finance cryptonaitive&ChatGPT
Настала ера штучного інтелекту, і люди панікують з цього приводу.
На щастя, я тут, щоб повідомити хороші новини: штучний інтелект не знищить світ, він може його врятувати.
По-перше, короткий вступ до того, що таке штучний інтелект: процес застосування математики та програмного коду, щоб навчити комп’ютери розуміти, синтезувати та генерувати знання, як люди. Штучний інтелект — це програма, як і будь-яка інша комп’ютерна програма — вона працює, отримує вхідні дані, обробляє їх і генерує вихідні дані. Результати штучного інтелекту дуже корисні в різних сферах, від програмування до медицини, права та творчого мистецтва. Нею, як і будь-якою іншою технологією, володіють і контролюють люди.
Короткий опис штучного інтелекту: це не те, що у фільмах, де програмне забезпечення-вбивця та роботи раптово оживають і вирішують урізати людей або іншим чином знищити все.
Коротший опис штучного інтелекту: це може бути способом покращити все, що нам важливо.
**Чому ШІ може покращити все, що нам важливо? **
Основний висновок численних досліджень, проведених у сфері соціальних наук протягом багатьох років, полягає в тому, що людський інтелект може призвести до різких покращень у всіх сферах життя. Розумніші люди досягають кращих результатів майже в усіх сферах: академічні досягнення, продуктивність у роботі, кар’єрний статус, дохід, креативність, фізичне здоров’я, довголіття, навчання новим навичкам, вирішення складних завдань, лідерство, успіх у підприємницькій діяльності, вирішення конфліктів, розуміння прочитаного, прийняття фінансових рішень , Розуміння поглядів інших, Творче мистецтво, Результати батьківства та Задоволеність життям.
Крім того, людський інтелект є тим важелем, який ми тисячоліттями використовували для створення нашого світу: науки, техніки, математики, фізики, хімії, медицини, енергетики, архітектури, транспорту, зв’язку, мистецтва, музики, культури, філософії, етики та моралі. Без застосування інтелекту в усіх цих сферах ми все ще могли б жити в глинобитних хатинах, намагаючись вижити в бідності сільського господарства. Натомість за останні 4000 років ми використали інтелект, щоб підвищити свій рівень життя приблизно в 10 000 разів.
Штучний інтелект дає нам можливість у майбутньому покращити різноманітні результати інтелекту — від створення нових ліків до вирішення проблеми зміни клімату та технологій, що дозволяють здійснювати міжзоряні подорожі — шляхом значного вдосконалення людського інтелекту.
Процес посилення людського інтелекту за допомогою штучного інтелекту вже почався. Штучний інтелект з’явився навколо нас у різних формах, наприклад у різних комп’ютерних системах керування, а зараз є широкомасштабні мовні моделі штучного інтелекту, такі як ChatGPT, і відтепер він буде Швидке прискорення - якщо ми це дозволимо.
У нашу нову еру штучного інтелекту:
• Кожна дитина матиме репетитора ШІ з безмежним терпінням, безмежним співчуттям, безмежними знаннями та безмежною допомогою. Цей наставник зі штучним інтелектом буде поруч із кожною дитиною, коли вона росте, допомагаючи їй повністю розкрити свій потенціал і даруючи нескінченну любов.
• Кожен матиме помічника/тренера/наставника/тренера/радника/терапевта з безмежним терпінням, безмежним співчуттям, безмежним знанням і безмежною допомогою. Цей помічник зі штучним інтелектом буде поруч із життєвими можливостями та викликами, максимізуючи результати кожного.
• У кожного вченого буде помічник/співпрацівник/партнер зі штучним інтелектом, здатний значно розширити сферу його наукових досліджень і досягнень. Таким буде світ кожного художника, інженера, бізнесмена, лікаря та фельдшера.
• Кожен керівник — генеральний директор, урядовець, президент некомерційної організації, спортивний тренер, вчитель — зробить те саме. Ефект посилення кращого прийняття рішень лідерами величезний, тому збільшення інтелекту є, мабуть, найважливішим.
• Зростання продуктивності в економіці значно прискориться, сприяючи економічному зростанню, створенню нових галузей промисловості, створенню нових робочих місць і зростанню заробітної плати, що призведе до нової ери матеріального процвітання на Землі.
• Наукові відкриття, нові технології та нові ліки різко поширюватимуться, оскільки штучний інтелект допоможе нам далі декодувати закони природи та використовувати їх на нашу користь.
• Мистецтво увійде в золотий вік, оскільки художники, музиканти, письменники та режисери, які працюють за допомогою штучного інтелекту, зможуть реалізувати свої бачення швидше та в більших масштабах, ніж будь-коли раніше.
• Я навіть думаю, що штучний інтелект покращить бойові дії, коли це буде потрібно, значно зменшивши рівень смертності під час війни. Кожна війна характеризується дуже обмеженими людськими лідерами, які приймають жахливі рішення під надзвичайним тиском і з обмеженою інформацією. Військові командири та політичні лідери тепер матимуть радників зі штучним інтелектом, які допоможуть їм приймати кращі стратегічні та тактичні рішення, які мінімізують ризик, помилки та непотрібне кровопролиття.
• Коротше кажучи, усе, що сьогодні люди роблять за допомогою свого природного інтелекту, можна зробити краще за допомогою штучного інтелекту, і ми зможемо вирішувати нові виклики, які неможливо вирішити без штучного інтелекту, від лікування всіх хвороб до міжзоряних подорожей.
• І справа не тільки в інтелекті! Можливо, найбільш недооціненою якістю ШІ є його людський дотик. Мистецтво зі штучним інтелектом дає свободу створювати та ділитися своїми художніми ідеями тим, хто інакше не мав би технічних навичок. Розмова з чуйним другом, який працює зі штучним інтелектом, насправді може покращити його здатність справлятися з труднощами. І порівняно з людьми медичні чат-боти зі штучним інтелектом вже більш чуйні. Штучний інтелект з нескінченним терпінням і співчуттям зробить світ теплішим і дружнішим.
Ставки тут високі, а можливості величезні. Штучний інтелект, мабуть, є найважливішою і найкращою річчю, яку коли-небудь бачила наша цивілізація, принаймні нарівні з електрикою та мікрочіпами, і, можливо, навіть кращим за них.
Розвивати та популяризувати штучний інтелект — і триматися подалі від ризиків, яких нам слід побоюватися, — наш моральний обов’язок перед собою, перед нашими дітьми та перед нашим майбутнім.
Ми заслуговуємо на те, щоб жити в кращому світі зі штучним інтелектом, і тепер ми можемо це зробити.
**То чому паніка? **
Всупереч цій позитивній точці зору, поточна публічна дискусія про штучний інтелект сповнена паніки та параної.
Ми чуємо всілякі заяви про те, що штучний інтелект знищить усіх нас, розладнає наше суспільство, забере наші робочі місця, спричинить величезну нерівність і дозволить злим діячам робити жахливі речі.
Чому ця різниця в потенційних результатах, від майже утопічних до жахливо антиутопічних?
**Історично склалося так, що кожна важлива нова технологія, від лампочки до автомобіля, від радіо до Інтернету, викликала моральну паніку — соціальну інфекцію, яка змушує людей вірити, що нова технологія знищить світ або суспільство, або Обидва загинуть. **Добрі люди з Archives of Pessimism задокументували ці десятиліття епізодів моральної паніки, спричинених технологіями; їхня історія чітко демонструє цю закономірність. Як виявилося, нинішня паніка навколо штучного інтелекту навіть не перша.
Зараз справді існує багато нових технологій, які призводять до небажаних результатів — часто технологій, які мають величезну користь для нашого добробуту. Отже, це не означає, що наявність моральної паніки означає, що немає про що турбуватися.
Але **моральна паніка за своєю суттю ірраціональна — вона перебільшує те, що може бути законним занепокоєнням, до рівня істерії, що, за іронією долі, ускладнює нам протистояти справді серйозним проблемам. **
Зараз ми перебуваємо в повній моральній паніці щодо ШІ.
Ця моральна паніка була використана кількома суб’єктами для стимулювання політичних дій – наполягаючи на нових обмеженнях, правилах і законах щодо ШІ. Ці актори публічно говорять про небезпеку штучного інтелекту з надзвичайною драматизацією — вони підживлюють і ще більше підігрівають моральну паніку — всі вони представляють себе безкорисливими захисниками загального блага.
Але чи справді вони такі?
Вони праві чи ні?
АІ баптисти та самогонники
Економісти помітили давню модель таких реформаторських рухів. Учасників цих рухів можна розділити на дві категорії – «баптисти» та «бутлегери», виходячи з історичного прикладу сухого закону в США у 1920-х роках:
• «Баптисти» були справжніми віруючими соціальними реформаторами, які глибоко й емоційно вірили (хоча не обов’язково інтелектуально), що для запобігання соціальній катастрофі необхідні нові обмеження, правила та закони. У випадку заборони ці актори зазвичай були щирими християнами, які вірили, що алкоголь руйнує моральну структуру суспільства. Що стосується ризику штучного інтелекту, то ці актори — це люди, які щиро вірять, що штучний інтелект створює той чи інший ризик для існування — якщо ви поставите їх на детектор брехні, вони справді так і є.
• Контрактники — це корисливі оппортуністи, які отримують вигоду від нових обмежень, правил і законів у міру їх впровадження та ізолюють себе від конкурентів. Для сухого закону це були контрабандисти, які заробили величезні статки на нелегальному продажу алкоголю в той час, коли легальний продаж алкоголю був заборонений. Щодо ризику штучного інтелекту, це головні керівники, які могли б заробити більше грошей, якби створили своєрідний картель санкціонованих урядом постачальників штучного інтелекту, захищених від стартапів і конкуренції з відкритим кодом. Керівники – це версія програмного забезпечення «занадто велика, щоб банк "збій".
Цинік міг би заперечити, що деякі уявні баптисти також є бутлегерами — особливо ті, чиї університети, аналітичні центри, групи активістів і засоби масової інформації платять їм зарплату або отримують гранти на атаку ШІ. Якщо вам платять зарплату або грант, щоб розпалити паніку ШІ, ви, ймовірно, контрабандист.
Проблема бутлегерів у тому, що вони виграють. Баптисти — наївні ідеологи, а бутлегери — цинічні оператори, тому результатом таких реформаторських рухів зазвичай є те, що бутлегери отримують те, чого хочуть — регулятивний контроль, захист від конкуренції, формування монополії, тоді як баптистів бентежило прагнення до соціального покращення.
Щойно ми пережили шокуючий приклад – банківські реформи після світової фінансової кризи 2008 року. Баптисти кажуть нам, що нам потрібні нові закони та правила, щоб розбити банки, «занадто великі, щоб збанкрутувати», щоб запобігти повторенню подібної кризи. Тож Конгрес США прийняв Закон Додда-Френка 2010 року, який рекламувався як такий, що відповідає цілям баптистів, але насправді цим скористалися контрабандисти – великі банки. Підсумок полягає в тому, що банки, які були занадто великими, щоб збанкрутувати в 2008 році, тепер стали ще більшими.
Тож на практиці, навіть якби баптисти були щирими, навіть якби баптисти мали рацію, вони були б використані хитрими та жадібними контрабандистами для власної вигоди.
Це саме те, що нині стимулює регулювання ШІ.
Проте недостатньо лише ідентифікувати дійових осіб і звинуватити їхні мотиви. Ми маємо оцінити це проти аргументів баптистів і бутлегерів.
**Ризик ШІ 1: чи вб’є нас штучний інтелект? **
**Першим і найбільш раннім ризиком кінця суду є страх, що ШІ вирішить убити людство. **
Наш страх, що сама технологія повстане і знищить нас, укорінився в нашій культурі. Греки висловлювали цей страх через міф про Прометея - Прометей приніс людству руйнівну силу вогню та загалом технології ("techne"), тому Прометей був увічнений богами, закатованими. Пізніше Мері Шеллі створила цю міфічну версію нас самих для сучасних людей у своєму романі «Франкенштейн», у якому ми розвиваємо технологію безсмертя, яка потім повстає і намагається нас знищити. Звичайно, суттєвим для того, щоб налякати газетне висвітлення штучного інтелекту, є нерухоме зображення сяючого робота-вбивці з червоними очима з фільму Джеймса Кемерона «Термінатор».
Передбачувана еволюційна мета цього міфу полягає в тому, щоб спонукати нас серйозно розглянути потенційні ризики нових технологій — зрештою, вогонь справді може бути використаний, щоб спалити цілі міста. Але подібно до того, як вогонь одночасно є основою сучасної цивілізації, який використовується, щоб зігріти нас і захистити нас у холодному та ворожому світі, цей міф ігнорує більші переваги більшості, якщо не всіх, нових технологій і насправді спричиняє хаос Сексуальні емоції, а не раціональний аналіз. Те, що стародавні так панікували, не означає, що ми також повинні панікувати; ми можемо використовувати розум.
**Я вважаю, що ідея про те, що ШІ вирішить вбивати людей, є глибокою помилкою категорії. **Штучний інтелект — це не жива істота, яка еволюціонувала протягом мільярдів років, щоб брати участь у боротьбі за виживання найбільш пристосованих, як тварини чи ми самі. Це комп’ютери з математичним кодом, які створили, володіють, використовують і контролюють люди. Вважати, що в якийсь момент він розвине власний розум і вирішить, що у нього є мотив, який спонукає його вбити нас, — це хвиля забобонів.
Коротше кажучи, **ШІ не має волі, немає мети, він не хоче вбивати вас, тому що він не живий. ШІ — це машина, не більш жива, ніж ваш тостер. **
Зараз, мабуть, є ті, хто глибоко вірить у вбивць зі штучним інтелектом – раптове божевільне збільшення висвітлення в ЗМІ гасить їхні жахливі попередження, деякі з яких стверджують, що вивчали цю тему десятиліттями, а тепер жахаються тим, що, як вони знають, порушує. Деякі з цих справжніх віруючих є навіть справжніми новаторами технології. Ці люди виступають за всі види дивних і екстремальних обмежень штучного інтелекту, від заборони розвитку штучного інтелекту до військових авіаударів по центрах обробки даних і ядерної війни. Вони стверджують, що оскільки такі люди, як я, не можуть виключити потенційно катастрофічні наслідки штучного інтелекту в майбутньому, ми повинні прийняти запобіжну позицію, яка може вимагати значного фізичного насильства та смерті, щоб запобігти потенційним ризикам для існування.
Я відповідаю, що їхня позиція ненаукова – які гіпотези можна перевірити? Які факти підтверджують хибність цього припущення? Як ми дізнаємося, що ми потрапили в небезпечну зону? Ці запитання здебільшого залишаються без відповіді, окрім «Ви не можете довести, що цього не станеться!» Насправді, позиції цих баптистів настільки антинаукові та екстремальні — теорія змови про математику та код — що вони назвали фізичне насильство, тому я збираюся зробити те, чого зазвичай не роблю, сумнівайтеся в їхніх мотивах.
Зокрема, я думаю, що відбуваються три речі:
По-перше, пригадайте відповідь Джона фон Неймана на занепокоєння Роберта Оппенгеймера щодо створення ним ядерної зброї, яка допомогла закінчити Другу світову війну та запобігти Третій. "Деякі люди зізнаються у злочинах, щоб заявити про свої злочини", - сказав він. Який найкращий спосіб стверджувати про важливість своєї роботи в перебільшений спосіб, не здаючись зайвим хвалькуватим? Це пояснює непослідовність баптистів, які насправді створюють і фінансують штучний інтелект — стежте за їхніми діями, а не за словами. (Після зустрічі з Оппенгеймером Трумен був ще суворішим: «Не пускайте знову ту плаксу».)
По-друге, деякі баптисти насправді були контрабандистами. Існує ціла кар’єра під назвою «Експерт з безпеки ШІ», «Етик ШІ», «Дослідник ризиків ШІ». Їх робота полягає в тому, щоб бути пророками, і до їхніх заяв слід ставитися належним чином.
По-третє, Каліфорнія відома численними культами, від EST до People's Temple, від Heaven's Gate до Family Manson. Багато з цих, хоча й не всі, культи є нешкідливими і навіть надають допомогу відчуженим, які знаходять у них дім. Але деякі з них настільки небезпечні, що культам часто важко йти по лінії насильства та смерті.
І реальність така, мабуть, очевидна для всіх у районі затоки, що «ризик штучного інтелекту» перетворився на культ, який привернув увагу світових ЗМІ та публічне обговорення. Культ приваблює не лише деяких маргінальних діячів, але й деяких справжніх експертів галузі та чимало багатих донорів — у тому числі донедавна Сема Бенкмана-Фріда. Це розробило цілий набір культових форм поведінки та вірувань.
У цьому культі немає нічого нового - існує давня західна традиція під назвою міленіалізм, яка породила культ Апокаліпсису. Культ «AI Risk» має всі ознаки апокаліптичного культу тисячоліть. З Вікіпедії я зробив деякі доповнення:
Ця модель сект кінця світу настільки очевидна, що я дивуюся, що більше людей цього не бачать.
Не зрозумійте мене неправильно, секти — це весело, їхні письмові матеріали часто креативні та захоплюючі, а їхні члени чарівні на званих вечерях і по телевізору. Але їхні крайні переконання не повинні визначати майбутнє закону та суспільства – і, очевидно, не повинні.
**Ризик 2: ШІ знищить наше суспільство? **
Друга широко розповсюджена ідея щодо ризику штучного інтелекту полягає в тому, що **ШІ знищить наше суспільство, створивши «шкідливі» результати (висловлюючись мовою таких пророків), навіть якщо нас насправді не вб’ють. **
Коротко: **Якщо машини-вбивці не завдають нам шкоди, мова ненависті та дезінформація можуть. **
Це відносно новий апокаліптичний напрямок, який відгалужується від описаного вище руху «ШІ-ризик» і певною мірою домінує над ним. Насправді термінологія ризику штучного інтелекту нещодавно змінилася з «безпеки штучного інтелекту» (термін, який використовують ті, хто хвилюється, що штучний інтелект насправді вб’є нас) на «вирівнювання штучного інтелекту» (термін, який використовують ті, хто турбується про суспільну «шкоду»). . Розчаровані цією зміною, оригінальні спеціалісти з безпеки штучного інтелекту, хоча вони не знають, як це повернути, тепер виступають за перейменування фактичної теми ризиків штучного інтелекту на «AInotkilleveryoneism» (AInotkilleveryoneism), хоча цей термін ще не визнано. Широко прийнято, але принаймні ясно.
Ключовою ознакою пропозиції ШІ щодо суспільних ризиків є її власний термін «вирівнювання ШІ». Приєднатися до чого? людські цінності. Які людські цінності? О, і тут все стає складніше.
Як це сталося, я був свідком подібної ситуації на власні очі – війни в соціальних мережах «довіра та безпека». Зрозуміло лише те, що протягом багатьох років служби соціальних медіа зазнавали сильного тиску з боку урядів і активістів щодо заборони, обмеження, цензури та придушення будь-якого вмісту. А занепокоєння щодо «мови ненависті» (та її математичної аналогії «алгоритмічної упередженості») і «дезінформації» перемістилися безпосередньо з контексту соціальних медіа в нову сферу «вирівнювання ШІ».
Ключові уроки, які я виніс із воєн у соціальних мережах:
З одного боку, немає позиції абсолютної свободи слова. По-перше, кожна країна, включаючи Сполучені Штати, вважає принаймні деякий вміст незаконним. По-друге, існують певні типи контенту, як-от дитяча порнографія та підбурювання до насильства в реальному світі, які вважаються забороненими майже в усіх суспільствах — незалежно від того, легальні чи ні. Таким чином, будь-яка технологічна платформа, яка полегшує або генерує контент – мову – матиме деякі обмеження.
З іншого боку, слизький шлях – це не міф, а неминучість. Після того, як створено рамки для обмеження навіть найбільш кричущого вмісту, наприклад, ненависті, певних образливих термінів або дезінформації, явно неправдивих тверджень (наприклад, «Папа помер»), різні державні установи, групи тиску на активістів і не -урядові органи швидко вимагатимуть посилення цензури та придушення висловлювань, які, на їхню думку, становлять загрозу суспільству та/або своїм особистим уподобанням. Вони робитимуть це способами, які включають кричущі злочини. На практиці цей цикл, здається, триває вічно, підтримуваний ентузіастами офіційних спостерігачів у наших елітних владних структурах. Це відбувається в соціальних мережах протягом десятиліття, і, за деякими винятками, це тільки погіршується.
Отже, зараз є це динамічне формування навколо "вирівнювання ШІ". Її прихильники стверджують, що розуміють мудрість сприйняття мови та ідей, створених штучним інтелектом, які є корисними для суспільства, і забороняють мову та ідеї, створені ШІ, які є шкідливими для суспільства. Її опоненти стверджують, що «Поліція думок» є надзвичайно зарозумілою, владною та часто кричущо злочинною, принаймні у Сполучених Штатах, і фактично намагається стати новою державно-корпоративно-академічною диктатурою авторитетного мовлення, нагадуючи Джорджа Ф. Орвелла. 1984 рік.
Оскільки прихильники як «довіри та безпеки», так і «вирівнювання штучного інтелекту» зосереджені в дуже вузькому сегменті глобального населення, який характеризується прибережною елітою США, до якої входить багато тих, хто працює та пише про індустрію технологій. Як наслідок, багато моїх читачів будуть змушені стверджувати, що значні обмеження на вихід штучного інтелекту необхідні, щоб уникнути руйнування суспільства. Я не буду зараз вас переконувати, я просто скажу, що така потреба і що більшість світу не погоджується з вашою ідеологією та не хоче бачити вашу перемогу.
Якщо ви не згодні з вузькою мораллю, яка наразі нав’язується соціальним медіа та штучному інтелекту через посилені норми мови, ви також повинні знати, що боротьба за те, що штучному інтелекту дозволено говорити/генерувати, буде набагато важливішою, ніж боротьба за цензуру соціальних мереж. набагато важливіше. ШІ, швидше за все, стане керуючим рівнем всього в світі. Те, як йому дозволено функціонувати, мабуть, матиме більше значення, ніж будь-що інше. Ви повинні знати, що кілька ізольованих соціальних інженерів намагаються вирішити, як ШІ повинен працювати зараз, прикриваючись старою риторикою, яка захищає вас.
Коротше кажучи, не дозволяйте поліції думки пригнічувати ШІ.
**Ризик 3: ШІ займе всі наші робочі місця? **
**Існує постійний страх втрати роботи через заміну людської праці машинами в різних формах, таких як механізація, автоматизація, комп’ютеризація чи штучний інтелект. **Це занепокоєння зберігалося протягом сотень років, з моменту появи механічних пристроїв, таких як механічні ткацькі верстати. Хоча кожна нова велика технологія історично призводила до появи більш високооплачуваних робочих місць, кожна хвиля паніки супроводжувалася наративом «цього разу все по-іншому» — цього разу це станеться, цього разу це технологія. Час нарешті завдасть фатальної удар по людській праці. Однак цього так і не сталося.
У недавньому минулому ми пережили два цикли паніки безробіття, спричиненої технологіями: страх аутсорсингу в 2000-х і страх автоматизації в 2010-х. У той час як багато представників ЗМІ, експертів і навіть керівників технологічної галузі протягом двох десятиліть продовжували бити по столу, стверджуючи, що масове безробіття неминуче, наприкінці 2019 року — перед спалахом COVID — можливостей роботи у світі більше, ніж у будь-який момент в історії, і зарплата вища.
Однак ця хибна ідея не зникає.
Звичайно, воно повернулося.
Цього разу ми нарешті маємо технологію, яка забере всі робочі місця та зробить людську працю неактуальною — справжній штучний інтелект. Звичайно, цього разу історія не просто повториться: ШІ призведе до масового безробіття, а не до швидкого економічного зростання, збільшення робочих місць і підвищення зарплат. правильно?
Ні, цього точно не станеться, і якщо штучному інтелекту дозволити розвиватися та поширюватися в економіці, це може призвести до найзахопливішого та найтривалішого економічного буму в історії, з відповідною рекордною кількістю робочих місць і зростанням заробітної плати – саме протилежне тому, чого боялися люди. Причина полягає в наступному.
**Автоматизація вбиває робочі місця Основна помилка теістів називається «оманою сукупної праці». **** Ця помилка полягає в тому, що в економіці в будь-який момент часу має бути виконана фіксована кількість праці, або машинами, або людьми, і якщо це роблять машини, то людям нема чого робити. **
Помилка сукупної праці природним чином виникає з інтуїції, але ця інтуїція помилкова. **Коли технологія використовується у виробництві, ми досягаємо зростання продуктивності — збільшення обсягу виробництва за рахунок зменшення витрат. **Результат – падіння цін на товари та послуги. Оскільки ціни на товари та послуги падають, ми платимо менше, а це означає, що тепер у нас є додаткова купівельна спроможність купувати інші речі. Це збільшує попит в економіці, стимулює нове виробництво — як нових продуктів, так і нових галузей — створюючи нові робочі місця для людей, витіснених машинами. **Результатом є більша економіка, більше матеріального добробуту, більше галузей промисловості, більше продуктів, більше робочих місць. **
Але хороші новини не тільки це. Ми також отримуємо більшу зарплату. Це пояснюється тим, що на рівні окремого працівника ринок визначає винагороду на основі граничної продуктивності працівника. Працівник у промисловості, наповненій технологіями, більш продуктивний, ніж працівник у традиційній галузі. Або роботодавець заплатить більше на основі підвищення продуктивності працівника, або інший роботодавець зробить це з чистих власних інтересів. Результатом є те, що галузі, які впроваджують технології, не тільки збільшать можливості працевлаштування, але й підвищать заробітну плату.
Підсумовуючи, передові технології дозволяють людям працювати ефективніше. Це спричиняє падіння цін на існуючі товари та послуги та зростання заробітної плати. Це, у свою чергу, прискорює економічне зростання та зростання зайнятості, а також стимулює створення нових робочих місць і нових галузей. **Якщо ринкова економіка зможе функціонувати належним чином і технології можна буде вільно впроваджувати, це буде нескінченний висхідний цикл. Як зазначив Фрідман, «людські бажання та потреби невичерпні» — ми завжди хочемо більше, ніж маємо. Ринкова економіка, яка охоплює технології, — це те, як ми наближаємося до досягнення всього, що кожен може собі уявити, але ніколи не досягає. Ось чому технології не знищать робочі місця, ніколи не знищать.
Для тих, хто не стикався з цими ідеями, це шокуючі думки, для розуміння яких може знадобитися деякий час. Але я клянуся, що я їх не вигадую - насправді, ви можете прочитати їх усі в стандартних підручниках з економіки. Я рекомендую розділ Генрі Хезлітта «Прокляття машини» в «Економіці за один урок» і сатиру Фредеріка Бастіа «Петиція свічника», які протестують проти сонця, оскільки воно нечесно конкурує в освітлювальній промисловості. Ми також маємо сучасну версію нашого часу.
Але ви можете подумати, що цього разу все інакше. Цього разу, з появою штучного інтелекту, ми маємо технологію, яка може замінити всю людську працю.
Але, дотримуючись принципів, які я описав вище, уявіть, що б означало, якби всю існуючу людську працю замінити машинами.
Це означало б, що економічне зростання продуктивності злетіло б абсолютно астрономічними темпами, значно перевищуючи будь-який історичний прецедент. Ціни на існуючі товари та послуги впадуть майже до нуля. Добробут споживачів зросте. Споживацька спроможність зросте. В економіці буде сплеск нового попиту. Щоб задовольнити всі нові потреби, підприємці створять запаморочливу кількість нових галузей, нових продуктів і нових послуг і наймуть якомога більше штучного інтелекту та працівників якомога швидше.
Що, якщо штучний інтелект знову замінить цих працівників? Цей цикл повторюватиметься, сприяючи добробуту споживачів, економічному зростанню та зростанню зайнятості та заробітної плати. Це була б лінійна висхідна спіраль, що веде до матеріальної утопії, про яку Адам Сміт і Карл Маркс ніколи не наважувалися мріяти.
Нам повинно пощастити.
**Ризик 4: чи призведе штучний інтелект до серйозної нерівності? **
Говорячи про Карла Маркса, занепокоєння щодо того, що штучний інтелект забирає робочі місця, безпосередньо призводить до наступного заявленого ризику штучного інтелекту, який, ну, Марк, припускає, що штучний інтелект справді забирає всі робочі місця, чи то добре, чи то погано. Отже, чи не призведе той факт, що власник штучного інтелекту отримує всі фінансові винагороди, а звичайні люди нічого не отримають, до величезної та серйозної нерівності в багатстві?
Цілком доречно, це центральна марксистська теза про те, що власники засобів виробництва — буржуазія — неминуче викрадають усі суспільні багатства у тих, хто насправді працює — пролетаріату. Незалежно від того, скільки разів реальність доводила, що це не так, помилка ніколи не вмирає. Але давайте все ж спростуємо.
Недоліком цієї теорії є те, що, як власник частини технології, не у ваших власних інтересах зберігати її та не ділитися нею — насправді, це навпаки, ваш інтерес полягає в тому, щоб продати її якомога більшій кількості клієнтів. . Найбільшим ринком у світі є глобальний ринок, який включає 8 мільярдів людей. Отже, насправді кожна нова технологія — навіть якщо вона починає продавати великі, добре оплачувані корпорації чи заможних споживачів — швидко поширюється, поки не потрапляє в руки найбільшого можливого масового ринку, зрештою охоплюючи людей усієї планети.
Класичним прикладом цього є так званий «секретний план» Ілона Маска в 2006 році - який він, звичайно, оприлюднив публічно - про плани Tesla:
Що, звісно, він і зробив, і став найбагатшою людиною у світі.
Останній пункт є критичним. Чи став би Маск багатшим, якби сьогодні продавав машини лише багатим людям? не буду. Чи був би він багатшим, ніж зараз, якби будував автомобілі лише для себе? звичайно, ні. Ні, він максимізує свій прибуток, продаючи на якомога більшому ринку в усьому світі.
Коротше кажучи, кожен може мати цю річ, як ми бачили в минулому з автомобілями, електрикою, радіо, комп’ютерами, Інтернетом, мобільними телефонами та пошуковими системами. Компанії, які виробляють ці технології, дуже мотивовані знижувати ціни, поки кожен на планеті не зможе їх собі дозволити. Це саме те, що вже відбувається зі штучним інтелектом — саме тому ви можете використовувати його сьогодні на безкоштовному або недорогому сучасному генеруючому штучному інтелекті у формі Microsoft Bing і Google Bard — і це відбуватиметься й надалі. Не тому, що ці постачальники дурні чи щедрі, а саме тому, що вони жадібні - вони хочуть максимізувати розмір ринку і таким чином максимізувати прибуток.
Отже, те, що відбувається, є протилежністю теорії, згідно з якою технології спричиняють концентрацію багатства — окремий користувач технології, який, зрештою, включає кожну людину на планеті, натомість наділений повноваженнями та захоплює більшу частину створеної вартості. Як і у випадку з попередніми технологіями, компанії, які створюють штучний інтелект (припускаючи, що вони повинні працювати на вільному ринку), намагатимуться зробити це реальністю.
Маркс помилявся тоді, помиляється й зараз.
Це не означає, що нерівність не є проблемою нашого суспільства. Це проблема, за винятком того, що вона зумовлена не технологіями, а тими секторами економіки, які є найбільш стійкими до нових технологій і в які уряд найбільше втручається, щоб запобігти впровадженню нових технологій, таких як штучний інтелект, зокрема житло, освіта та охорона здоров'я. **Реальний ризик штучного інтелекту та нерівності полягає не в тому, що штучний інтелект спричинить посилення нерівності, а в тому, що ми не дозволимо використовувати штучний інтелект для зменшення нерівності. **
**Ризик 5: чи штучний інтелект змусить поганих людей робити погані вчинки? **
Наразі я пояснив, що чотири з п’яти найбільш часто згадуваних ризиків штучного інтелекту насправді не є реальними — штучний інтелект не оживе, щоб убити нас, штучний інтелект не знищить наше суспільство, штучний інтелект не зможе керувати до масового безробіття, і ШІ не призведе до нищівного зростання нерівності. Але тепер давайте поговоримо про п’ятий, і це той, з яким **я насправді згоден: ШІ полегшить поганим хлопцям робити погані вчинки. **
У певному сенсі це циклічний аргумент. Технологія – це інструмент. Починаючи з вогню та каменю, інструменти можна використовувати для добра — приготування їжі та будівництва будинків — і для зла — спалювання та побиття. Будь-яка технологія може бути використана в добрих чи поганих цілях. зрозуміло. І ШІ полегшить злочинцям, терористам і ворожим урядам робити погані вчинки, безсумнівно.
Це змусило деяких людей сказати: якщо це так, давайте заборонимо штучний інтелект у цьому випадку, поки не сталося погано. На жаль, штучний інтелект не є такою таємничою речовиною, яку важко отримати, як плутоній. Навпаки, це найдоступніший матеріал у світі – математика та код.
Мабуть, AI коти вийшли з упаковки. Ви можете навчитися створювати штучний інтелект за допомогою тисяч безкоштовних онлайн-курсів, книг, статей і відео, а список видатних реалізацій з відкритим кодом продовжує зростати щодня. ШІ, як повітря, він буде всюди. Щоб це зловити, необхідний рівень тоталітарних репресій був би настільки жорстоким - світовий уряд, який стежить і контролює всі комп'ютери? Озброєні поліцейські на чорних гелікоптерах здійснюють рейд на фальшиві графічні процесори? — У нас не буде суспільства, яке потрібно захищати.
Отже, у нас є два дуже прості способи впоратися з ризиком того, що зловмисники використовують ШІ для поганих вчинків, і саме на цьому ми повинні зосередитися.
**По-перше, у нас є закони, які криміналізують більшість випадків використання штучного інтелекту в цілях зла. ** Злом Пентагону? Це злочин. Вкрасти гроші з банку? Це злочин. Створення біологічної зброї? Це злочин. Здійснити теракт? Це злочин. Нам просто потрібно зосередитися на запобіганні цим злочинам, коли ми можемо, і переслідуванні їх, коли ми не можемо. Нам навіть не потрібні нові закони – я не знаю, чи є справжня справа, яка була порушена за зловмисне використання штучного інтелекту, яке вже не є незаконним. Якщо виявляються нові випадки використання, ми забороняємо це використання. Сертифікат готовий.
Але ви помітите, що я щойно сказав — я сказав, що ми повинні спершу зосередитися на запобіганні злочинам за допомогою ШІ, перш ніж трапляться погані речі — хіба це не означає заборону ШІ? Що ж, є ще один спосіб запобігти такій поведінці, і це використовувати ШІ як інструмент захисту. Той самий штучний інтелект, який дає поганим людям можливість ставити погані цілі, є настільки ж потужним у руках хороших людей — особливо хороших людей, яким доручено запобігати поганим речам.
Наприклад, якщо ви стурбовані тим, що штучний інтелект створює фальшивих людей і фальшиві відео, відповідь полягає в створенні нових систем, які дозволять людям автентифікувати себе та справжній вміст за допомогою криптографічних підписів. Цифрове створення та модифікація справжнього та підробленого контенту існували ще до штучного інтелекту; відповідь полягає не в забороні текстових процесорів і Photoshop — або штучному інтелекті — а у використанні технології для створення системи, яка справді вирішує проблему.
Тож ** другий підхід полягає в тому, що давайте агресивно використовувати штучний інтелект для доброякісних, законних і оборонних цілей. Давайте використовувати штучний інтелект для кіберзахисту, біозахисту, відстеження терористів і всього іншого, що ми робимо, щоб захистити себе, наші спільноти та нашу націю. **
Звичайно, є багато розумних людей в уряді та за його межами, які вже виконують таку роботу, але якщо ми спрямуємо всі поточні зусилля та інтелект, зосереджені на неефективній забороні штучного інтелекту, на використання штучного інтелекту, щоб завадити поганим людям робити погані речі Я вірю, що світ, повний штучного інтелекту. Розумний світ буде більш безпечним, ніж світ, у якому ми живемо сьогодні.
Реальні ризики невпровадження ШІ з максимальною потужністю та швидкістю
Є один останній і реальний ризик ШІ, який може бути найстрашнішим з усіх:
ШІ використовують не лише у відносно ліберальних західних суспільствах, а й у Китаї.
Китай має зовсім інше бачення ШІ, ніж ми. Вони навіть не тримають цього в таємниці, і дуже чітко дали зрозуміти, що вже досягають своїх цілей. І вони не мають наміру обмежувати свою стратегію штучного інтелекту Китаєм – вони мають намір робити це там, де вони надають мережі 5G, пропонують позики «Один пояс, один шлях», пропонують зручні для споживача програми, як-от TikTok, як інтерфейс ШІ для централізованого керування та керування, поширюючи це в будь-який куточок світу.
**Найбільший ризик для штучного інтелекту полягає в тому, що Китай завойовує глобальне домінування в галузі штучного інтелекту, а ми – США та Захід – ні. **
Я пропоную просту стратегію вирішення цієї проблеми — насправді це стратегія, яку прийняв президент Рональд Рейган, коли виграв першу холодну війну з Радянським Союзом.
«Ми виграємо, вони програють».
Замість того, щоб відсунути на другий план безпідставні страхи навколо ШІ-вбивць, шкідливого ШІ, штучного інтелекту, який руйнує робочі місця та створює нерівність, ми в США та на Заході повинні якомога повніше інвестувати в ШІ.
Ми повинні боротися з глобальною гонкою за технологічну перевагу в області штучного інтелекту і переконатися, що Китай не переможе.
У цьому процесі ми повинні якомога швидше й енергійніше впроваджувати ШІ в наші економіки та суспільства, щоб максимізувати його переваги для економічної продуктивності та людського потенціалу.
Це найкращий спосіб компенсувати реальні ризики штучного інтелекту та гарантувати, що наш спосіб життя не буде замінено баченням Китаю.
**що нам робити? **
Я придумав простий план:
• Великим компаніям штучного інтелекту слід дозволити створювати штучний інтелект якомога швидше й агресивніше, але не досягати регуляторної монополії, не створювати захищений урядом картель і бути звільненими від неправдивих заяв про ризики штучного інтелекту для конкуренції. на ринку. Це максимізує технологічні та соціальні переваги дивовижних можливостей цих компаній, перлин сучасного капіталізму.
**• Компанії-стартапи, що займаються штучним інтелектом, повинні мати можливість створювати ШІ якомога швидше та агресивніше. **Вони не повинні ані стикатися з захистом, який отримують великі корпорації від уряду, ані отримувати державну допомогу. Їм слід дозволяти лише змагатися. Якщо стартапи не досягають успіху, їхня присутність на ринку також постійно спонукатиме великі компанії до успіху — а наша економіка та суспільство все одно виграють.
**• Слід дозволити ШІ з відкритим вихідним кодом вільно поширюватися та конкурувати з великими компаніями та стартапами з використанням ШІ. **Відкритий код не повинен мати регуляторних бар’єрів. Навіть якщо відкритий код не виграє компанії, його широка доступність є благом для студентів у всьому світі, які хочуть навчитися створювати та використовувати штучний інтелект, щоб стати частиною технологій майбутнього та гарантувати, що незалежно від того, ким вони є чи скільки грошей у них є, ШІ працюватиме на них доступно.
**• Щоб протистояти ризику того, що зловмисники використовують штучний інтелект для поганих вчинків, уряди в партнерстві з приватним сектором мають активно брати участь у кожному аспекті потенційних зон ризику, використовуючи штучний інтелект для максимізації захисту суспільства. ** Це не повинно обмежуватися ризиками штучного інтелекту, а включати більш загальні проблеми, такі як недоїдання, хвороби та кліматичні проблеми. ШІ може бути надзвичайно потужним інструментом для вирішення проблем, і ми повинні думати про нього саме так.
**• Щоб запобігти ризику досягнення Китаєм глобального домінування штучного інтелекту, ми повинні повною мірою використовувати потужність нашого приватного сектору, науково-дослідних установ і уряду для спільного сприяння абсолютному домінуванню штучного інтелекту США та Заходу в глобальному масштабі. , і зрештою навіть у Китаї. Ми виграємо, вони програють. **
Ось як ми можемо використовувати штучний інтелект, щоб врятувати світ.
Настав час діяти.
Легенди та герої
Я закінчую двома простими твердженнями.
Розвиток штучного інтелекту почався в 1940-х роках, одночасно з винаходом комп'ютерів. Перша наукова стаття про нейронні мережі — архітектуру штучного інтелекту, який ми маємо сьогодні — була опублікована в 1943 році. За останні 80 років ціле покоління вчених зі штучного інтелекту народилося, пішло до школи, працювало і в багатьох випадках померло, так і не побачивши винагороди, яку ми отримуємо зараз. Вони легенди, кожна з них.
Сьогодні зростає кількість інженерів, багато з яких молоді, чиї бабусі чи дідусі, можливо, бабусі чи прадіди беруть участь у створенні ідей штучного інтелекту, працюють над тим, щоб втілити штучний інтелект в життя, незважаючи на стіну паніки та песимізму лиходіїв. Я не думаю, що вони безрозсудні чи негідники. Вони герої, усі. Ми з моєю компанією дуже раді підтримати якомога більше з них, і ми будемо підтримувати їх та їхню роботу на 100%.
** «Протягом багатьох років прихильники тисячоліть часто [прогнози ризиків штучного інтелекту постійно] намагалися передбачити точний час таких майбутніх подій, часто через інтерпретацію різних знаків і провісників. Однак історичні прогнози майже завжди зазнавали невдачі [наразі немає достовірних доказів того, що штучний інтелект вбиватиме людей]. **Однак їхні шанувальники [прогнозуючих ризик ШІ] зазвичай намагаються переглянути пояснення, щоб узгодити [потенційні ризики в майбутньому ШІ], коли відбуваються відповідні події».
Прихильники культу «ризику штучного інтелекту» можуть зі мною не погоджуватися і наполягати на тому, що вони раціональні, науково обґрунтовані, а я — послідовник із промитими мізками. Однак зауважте, що я не стверджую, що «штучний інтелект ніколи не стане загрозою для людства». Я просто зазначаю, що на сьогоднішній день немає жодних доказів, які підтверджують тезу «ШІ нас уб’є». Замість того, щоб впадати в культову паніку та реакцію, ми повинні робити раціональні оцінки на основі наявних доказів.