Баланс між прогресом та безпекою: 50 років тому вчені створили модель саморегулювання науки без політиків
У 1975 році на конференції в Асіломарі вчені розробили правила для досліджень “незвіданих територій” науки. Ці принципи
саморегулювання стали основою для розвитку генної інженерії, нанотехнологій та ШІ.
Шлях до саморегулювання без втручання політиків: 50 років тому, 24 лютого 1975 року, відбулася конференція в Каліфорнії, на якій було вироблено правила в дослідженнях “незвіданих територій” науки. Цей звід правил був важливий на тлі початкового розвитку синтетичної біології та нанотехнологій.
Сьогодні наукова саморегуляція актуальна в контексті розвитку досягнень та загроз на основі штучного інтелекту.
Передає УНН із посиланням на ANSA.
Деталі
Можливісті генетичної модифікації бактерій, розвиток виробництва ліків, таких як інсулін, і водночас ризик отримання потенційно небезпечних мікроорганізмів: великі можливості і невідомості спонукали піонерів генно-інженерних досліджень зустрітися 50 років тому, 24 лютого 1975 року в Асіломарі, штат Каліфорнія, щоб встановити кодекс правил для орієнтації в дослідженнях, коли освоюються “незвідані” і небезпечні “території” науки.
Встановлений звід правил, що саморегулюються, допоміг при відкритті нових кордонів у дослідженні синтетичної біології, нанотехнологій. Наразі вони важливі у контексті того, що відбувається зі штучним інтелектом.
Те, що зробили біологи в той час, є гарною моделлю для вивчення
– нещодавно заявив один із піонерів досліджень у галузі штучного інтелекту, лауреат Нобелівської премії Джеффі Гінтон.
Так само, як сьогодні ми думаємо про потенційний розвиток ШІ в багатьох секторах суспільства, ще на початку 1970-х років технології маніпулювання ДНК відкрили несподівані можливості, ідеться у матеріалі ANSA.
Можливість перенесення фрагмента ДНК з одного організму в інший для вивчення його функцій “дозволила будь-кому робити що завгодно
– зауважив піонер цієї технології, лауреат Нобелівської премії Пол Берг.
Таку саму стурбованість було висловлено 1973 року в листі, підписаному кількома дослідниками й опублікованому в журналі Science.
У 1974 році Берг та інші піонери досліджень ДНК закликали своїх колег зупинитися для роздумів і оголосити мораторій на свої експерименти.
Доти, доки потенційну небезпеку цих рекомбінантних молекул ДНК не буде краще оцінено або доки не буде розроблено адекватні методи запобігання їхньому поширенню
– попереджували фахівці.
Потім була організована зустріч 150 дослідників, представників урядових і корпоративних установ та 16 журналістів в Асіломарі у 1975 році.
Жваві дискусії, які призвели до вироблення правил безпеки, що й досі є взірцем для всього світу.
Відтоді “Асіломар” став символом здатності наукової спільноти до саморегулювання без втручання політиків і моделлю для багатьох інших прикордонних галузей, таких як синтетична біологія, нанотехнології та штучний інтелект.
Наприклад, 5 січня 2017 року в Асіломарі відбулася конференція з корисного штучного інтелекту, організована Інститутом майбутнього життя (Future of Life Institute). У цьому випадку також взяли участь багато дослідників з різних дисциплін, таких як економіка, етика і філософія, хоча, на відміну від 1975 року, багато хто з учасників є представниками приватних компаній.
Конференція в Асіломарі також вплинула на відкритий лист від 22 березня 2023 року, в якому понад 30 000 людей, включно з Ілоном Маском, висловили занепокоєння щодо систем штучного інтелекту, “які можуть становити серйозні ризики для суспільства і людства”.
Нагадаємо
Чат-бот Grok від xAI припинив відповідати на запити щодо дезінформації від Маска і Трампа. Зміни були внесені колишнім співробітником без схвалення керівництва компанії.
Дослідження Microsoft та Університету Карнегі-Меллона показало, що надмірна довіра до ШІ погіршує когнітивні здібності людей. В опитуванні 319 IT-фахівців виявлено пряму залежність між впевненістю в ШІ та зниженням критичного мислення.
Источник: УНН