Riscul unei super inteligențe artificiale, potrivit experților. De ce sunt îngrijorați


Reguli precum „nu răni oamenii” nu pot fi introdus în program dacă experții care îl contruiesc nu pot anticipa scenariile pe care le-ar genera acesta. Autorii noului studiu, atunci când un sistem computațional trece dincolo de înțelegerea programatorilor, atunci aceștia nu vor mai putea seta limite pentru el.

„O super inteligență e o problemă fundamental diferită față de cele obișnuite, studiate în nișa de etică a roboticii,” au scris experții în lucrarea științifică publicată în Journal of Artificial Intelligence Research. 

„Pentru că super inteligența are mai multe fațete și, astfel, e potențial capabilă să mobilizeze o diversitate de resurse pentru a atinge obiectivele ce sunt potențial de neînțeles pentru oameni sau controlabile,” au continuat ei. 

Echipa de cercetare și-a bazat argumentul pe teoria lui Alan Turing, din 1936. Problema e dacă un program va ajunge la un răspuns sau dacă va rămâne blocat într-o buclă în căutarea unei concluzii. 

Recent, experții au vorbit și despre cele 4 abilități care nu vor putea fi înlocuite de inteligența artificială.

Turing a reușit să demonstreze că e logic imposibil să găsim o metodă ce ar permite oamenilor să știe un răspuns clar la această întrebare pentru toate tipurile de programe ce ar putea fi create. 

Într-o stare super inteligentă, un program AI ar putea stoca în memorie orice program computațional, în același timp.

Ca urmare, experții au analizat riscul unei super inteligențe artificiale și au concluzionat că acesta ar putea fi semnificativ. 

Un angajat Google a susținut că un program de inteligență artificială are conștiință

În 2022, un angajat Google a fost suspendat după ce a susținut că un program de inteligență artificială are conștiință. Blake Lemoine, inginer în cadrul Google, a folosit mai multe conversații cu programul LaMDA pentru a-și susține punctul de vedere. 

Tehnologia poate fi folosită în sisteme precum Google Assistant și bara de căutare, potrivit Google. LaMDA încă se află în stadiul de cercetare și testare. Recent, însă, experții au vorbit despre riscul unei super inteligențe artificiale. 

Lemoine a publicat un articol pe Medium, în care a descris LaMDA drept „o persoană”. Potrivit lui Lemoine, el a vorbit cu LaMDA despre religie, conștiință și legile roboticii. Modelul de inteligență artificială s-ar fi descris drept o persoană conștientă. Ca urmare, angajatul Google a anunțat compania de descoperirea sa. În urma avertismentului și articolului, Google l-a suspendat pe Lemoine.

Citeste continuarea pe useit.ro

Total
0
Shares
Adauga un comentariu

Stirea precedenta

Afganistan. Cel puțin 19 persoane ucise și 27 rănite, într-un atac sinucigaș cu bombă la o școală din Kabul.

Urmatoarea stire

Actorul Alexandru Arșinel a murit; Avea 83 de ani

Stiri pe aceeasi tema