Un miler d'experts exigeixen frenar la intel·ligència artificial
Més d'un miler d'experts en tecnologia han presentat un contundent comunicat en què exigeixen a les empreses d'intel·ligència artificial (IA) que aturin el seu desenvolupament durant sis mesos, i als governs que procurin que es compleixi o que intervinguin per assegurar-ho. Denuncien el perill cada vegada més greu que suposa la IA per a la societat i la humanitat.
Per què és important? Insten a desenvolupar un sistema de control i governança per posar fre a la imminent catàstrofe que preveuen i aconseguir que la societat pugui gaudir de la IA i els seus beneficis i es pugui adaptar.
Què diuen? "Ni tan sols els seus creadors poden entendre" les ments intel·ligents que estan desenvolupant, asseguren els experts.
- "Els sistemes d'IA poderosos només s'han de desenvolupar quan estiguem segurs que els seus efectes seran positius i els seus riscos seran gestionables".
- "Hem de deixar que les màquines inundin els nostres canals d'informació amb propaganda i mentides?" es pregunten.
- I continuen qüestionant-se: "Hauríem de desenvolupar ments no humanes que eventualment puguin superar-nos en nombre, ser més intel·ligents i substituir-nos? Ens hem d'arriscar a perdre el control de la nostra civilització?"
- Afirmen que "aquestes decisions no s'han de delegar a líders tecnològics no elegits".
En detall: Els experts demanen que es creïn noves i competents autoritats dedicades a la IA.
- Establir supervisió i seguiment de sistemes d'IA d'alta capacitat
- Sistemes de seguiment i marca d'aigua per ajudar a diferenciar sistemes reals dels maliciosos.
- Un sistema d'autoria i certificació sòlid.
- Responsabilitat pels danys causats per la IA.
- Finançament públic per a la investigació tècnica de seguretat en IA.
- Institucions amb bons recursos per fer front als dramàtics efectes que la IA provocarà en l'economia i la política, especialment en la democràcia.
Què esperar? Els experts demanen als laboratoris d'IA que aprofitin l'aturada per desenvolupar i implementar "protocols de seguretat compartits per al disseny i desenvolupament avançats d'IA" i exigeix que siguin "rigorosament auditats i supervisats per experts externs independents".