Zoe Kleinman,Technologijų redaktorius, @zsk
„Move fast and break things“ – tai šūkis, kuris ir toliau persekioja technologijų sektorių, praėjus maždaug 20 metų po to, kai jį sugalvojo jaunas Markas Zuckerbergas.
Tie penki žodžiai simbolizavo Silicio slėnį blogiausiu atveju – negailestingų ambicijų ir gana kvapą gniaužiančios arogancijos derinys – pelno siekiančios naujovės, nebijant pasekmių.
Šią savaitę prisiminiau tą frazę, kai aktorė Scarlett Johansson susirėmė su OpenAI. Ponia Johansson tvirtino, kad tiek ji, tiek jos agentas atsisakė būti jos naujojo produkto, skirto ChatGPT, balsu, o tada, kai jis buvo pristatytas, jis vis tiek skambėjo kaip ji. OpenAI neigia, kad tai buvo tyčinė imitacija.
Tai klasikinė iliustracija, dėl ko kūrybinės industrijos taip nerimauja – būti imituojamos ir galiausiai pakeistos dirbtiniu intelektu.
Klausykite, kaip Zoe skaito šį straipsnį
Visa tai turi atgarsių iš senųjų laikų Silicio slėnio milžinų. Atleidimo, o ne leidimo ieškojimas kaip neoficialus verslo planas.
2024 m. technologijų įmonės labai nori atsiriboti nuo šios reputacijos.
Ir „OpenAI“ nebuvo suformuotas iš tos formos. Iš pradžių tai buvo ne pelno siekianti organizacija, įsipareigojusi bet kokį papildomą pelną investuoti atgal į verslą.
2019 m., kai suformavo pelno siekiančią padalinį, bendrovė teigė, kad jai vadovaus ne pelno siekianti pusė, o investuotojų grąža bus ribojama.
Ne visi buvo patenkinti pakeitimu – teigiama, kad tai buvo pagrindinė įkūrėjo Elono Musko sprendimo pasitraukti. Ir kai praėjusių metų pabaigoje valdyba netikėtai atleido OpenAI generalinį direktorių Samą Altmaną, viena iš teorijų buvo ta, kad jis norėjo toliau nutolti nuo pradinės misijos. Niekada tiksliai nesužinojome.
Tačiau net jei „OpenAI“ tapo labiau orientuota į pelną, ji vis tiek turi susidoroti su savo atsakomybe.
Košmarų dalykai
Politikos formavimo pasaulyje beveik visi sutaria, kad reikia nustatyti aiškias ribas, kad tokios įmonės kaip OpenAI neatsiliktų prieš ištikus nelaimei.
Iki šiol dirbtinio intelekto milžinai daugiausia žaidė ant popieriaus. Pirmajame pasaulyje AI saugos aukščiausiojo lygio susitikime prieš šešis mėnesius grupė technologijų vadovų pasirašė savanorišką įsipareigojimą sukurti atsakingus, saugius produktus, kurie maksimaliai padidintų AI technologijos naudą ir sumažintų jos riziką.
Tie pavojai, apie kuriuos jie kalbėjo, buvo košmarų dalykas – tai buvo Terminatorius, Doomsday, AI – sukčiauja ir sunaikina žmonijos teritoriją.
Praėjusią savaitę JK vyriausybės ataskaitos projekte, sudarytame iš 30 nepriklausomų ekspertų, buvo padaryta išvada, kad „įrodymų dar nėra“, kad AI galėtų sukurti biologinį ginklą arba įvykdyti sudėtingą kibernetinę ataką. Tikimybė, kad žmonės praranda AI kontrolę, buvo „labai ginčytina“, sakoma pranešime.
Ir kai viršūnių susitikimas vėl įvyko šią savaitę, žodis „saugumas“ buvo visiškai pašalintas iš konferencijos pavadinimo.
Kai kurie šioje srityje dirbantys žmonės jau seniai kalbėjo, kad tiesioginė AI įrankių grėsmė buvo ta, kad jie pakeis darbo vietas arba neatpažins odos spalvų. Tai yra tikrosios problemos, sako AI etikos ekspertas dr. Rumman Chowdhury.
Ir yra papildomų komplikacijų. Toje ataskaitoje teigiama, kad šiuo metu nėra patikimo būdo tiksliai suprasti, kodėl dirbtinio intelekto įrankiai generuoja tokią produkciją, kurią jie daro – net jų kūrėjai nėra tikri. O nusistovėjusioje saugos bandymų praktikoje, vadinamoje raudonųjų komandų sudarymu, kai vertintojai sąmoningai bando priversti dirbtinio intelekto įrankį netinkamai veikti, neturi geriausios praktikos gairių.
Ir tame tolesniame aukščiausiojo lygio susitikime šią savaitę, kurį kartu surengė JK ir Pietų Korėja Seule, technologijų įmonės įsipareigojo palikti gaminį, jei jis neatitiks tam tikrų saugos slenksčių, tačiau jie nebus nustatyti iki kito susirinkimo 2025 m. .
Kol ekspertai diskutuoja apie AI keliamų grėsmių pobūdį, technologijų įmonės ir toliau siunčia produktus.
Vien per pastarąsias kelias dienas buvo paleista „OpenAI“ „ChatGPT-4O“, „Google“ „Project Astra“ ir „Microsoft“ „CoPilot+“. AI saugos institutas atsisakė pasakyti, ar turėjo galimybę išbandyti šiuos įrankius prieš jų išleidimą.
„OpenAI“ teigia, kad turi 10 punktų saugos procesą, tačiau vienas iš jos vyresniųjų saugai skirtų inžinierių atsistatydino anksčiau šią savaitę, sakydamas, kad jo skyrius „plaukė prieš vėją“ viduje.
„Per pastaruosius metus saugos kultūra ir procesai nukrypo į blizgančius gaminius“, – X paskelbė Janas Leike.
Žinoma, yra ir kitų OpenAI komandų, kurios ir toliau daugiausia dėmesio skiria saugai. Tačiau nėra oficialios, nepriklausomos priežiūros, ką kuri nors iš šių įmonių iš tikrųjų daro.
„Savanorių susitarimai iš esmės yra tik priemonė įmonėms atlikti savo namų darbus“, – sako Andrew Strait, nepriklausomos tyrimų organizacijos Ada Lovelace instituto direktorius. „Tai iš esmės nepakeičia teisiškai įpareigojančių ir vykdytinų taisyklių, reikalingų atsakingam šių technologijų vystymuisi skatinti.
„Neturime garantijų, kad šios įmonės laikosi savo įsipareigojimų“, – sako profesorė Dame Wendy Hall, viena iš pirmaujančių JK kompiuterių mokslininkų.
„Kaip priversti juos atsiskaityti už tai, ką jie sako, kaip tai darome su narkotikų įmonėmis ar kituose sektoriuose, kur yra didelė rizika?
Artėja griežtesnės taisyklės. ES priėmė AI įstatymą, pirmąjį tokio pobūdžio įstatymą, ir už jo nesilaikymą gresia griežtos nuobaudos, tačiau kai kurie teigia, kad tai turės įtakos naudotojams, kurie turės patys įvertinti AI įrankius, o ne tuos, kurie kuria AI .
Tačiau tai nebūtinai reiškia, kad dirbtinio intelekto įmonės yra nuo kablio.
„Laikui bėgant turime pereiti prie teisinio reguliavimo, bet negalime to skubėti“, – sako prof. Hall. „Nustatyti pasaulinio valdymo principus, kuriuos visi pasirašo, yra tikrai sunku.
„Mes taip pat turime užtikrinti, kad tai tikrai pasaulis, o ne tik Vakarų pasaulis ir Kinija, kuriuos saugome.
Svarbiausia problema, kaip visada, yra ta, kad reguliavimas ir politika juda daug lėčiau nei naujovės.
Profesorius Hallas mano, kad „žvaigždės lygiuojasi“ vyriausybės lygiu.
Kyla klausimas, ar technologijų milžinus galima įtikinti jų laukti.
BBC InDepth yra nauji namai svetainėje ir programėlėje, kurioje pateikiami geriausi mūsų geriausių žurnalistų tyrimai ir patirtis. Su išskirtiniu nauju prekės ženklu pateiksime jums naujų perspektyvų, kurios meta iššūkį prielaidoms, ir išsamias ataskaitas apie didžiausias problemas, kurios padės suprasti sudėtingą pasaulį. Taip pat parodysime susimąstyti skatinantį turinį iš „BBC Sounds“ ir „iPlayer“. Pradedame nuo mažo, bet galvojame plačiai ir norime sužinoti, ką manote – galite atsiųsti mums savo atsiliepimą spustelėdami toliau esantį mygtuką.