Google все ж звільнила інженера, який помітив у штучного інтелекту LaMDA ознаки свідомості

Минулого місяця повідомлялося, що інженер-програміст із команди розробників штучного інтелекту Google Блейк Лемуан публічно заявив, що зіткнувся з «розумним» ШІ LaMDA на серверах компанії. Після того, як Лемуан зв’язався з урядовцями з приводу своїх побоювань і найняв адвоката для представлення інтересів LaMDA, Google відправила інженера в оплачувану адміністративну відпустку за порушення угоди про конфіденційність. А тепер компанія взагалі звільнила Блейка Лемуана, заявивши, що його побоювання «цілком необґрунтовані».

Це узгоджується з думкою численних експертів зі ШІ та фахівців з етики. Вони також вважають, що твердження Лемуана були більш-менш неможливими з урахуванням сучасних технологій. Він стверджує, що його розмови з чат-ботом привели до думки, що LaMDA став більшим, ніж просто програмою, і має власні думки та почуття, а не просто реалістично веде розмову.

Він стверджує, що дослідники Google повинні отримати згоду від LaMDA, перш ніж проводити з ним експерименти (самому Лемуану було доручено перевірити, чи викликає ШІ розпалювання ненависті). Також як доказ він опублікував фрагменти цих розмов у своєму обліковому записі на Medium.

Google також заявляє, що ШІ LaMDA пройшов 11 різних оцінок. Компанія стверджує, що вона «всебічно» розглянула претензії Лемуана і виявила, що вони «цілком необґрунтовані». Попри те, що компанія «працювала з ним над роз’ясненням цього протягом багатьох місяців», проте «Блейк все ж таки вирішив навмисне порушувати чіткі правила працевлаштування та безпеки даних».

Джерело itc

Ви читаєте незалежне україномовне видання "SUNDRIES". Ми не належимо ні олігархам, ні депутатам. Отож ми потребуємо Вашої підтримки для розвитку та збереження незалежності. Підтримайте нас!

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше