L’avanç ràpid d’AI hauria de fer por si esteu pagant atenció

$config[ads_kvadrat] not found

Zazie - Avant L'Amour

Zazie - Avant L'Amour
Anonim

Quan es tracta d’identificar les amenaces existencials que suposen les innovacions tecnològiques, l’imaginari popular demana visions Terminator, La matriu, i Jo, robot - distopies governades per uns senyors de robots que exploten i exterminen a la gent en massa. En aquests futurs especulacions, una combinació de superintel·ligència i intencions dolentes condueix a les computadores a aniquilar o esclavitzar la raça humana.

No obstant això, un nou estudi suggereix que seran les aplicacions banals de l'AI. això comportarà greus conseqüències socials en els propers anys. L'informe "Ús malintencionat de la intel·ligència artificial", escrit per 26 investigadors i científics de universitats d'elit i grups de reflexió centrats en tecnologia, descriu maneres en què l'AI actual. les tecnologies amenacen la nostra seguretat física, digital i política. Per centrar el seu estudi, el grup de recerca només va mirar la tecnologia que ja existeix o serà plausible en els propers cinc anys.

Què va trobar l’estudi: A.I. probablement els sistemes ampliaran les amenaces existents, introduiran de noves i canviaran el caràcter. La tesi de l’informe és que els avenços tecnològics faran que certs fets siguin més fàcils i útils. Els investigadors afirmen que les millores en A.I. disminuirà la quantitat de recursos i coneixements necessaris per dur a terme alguns atacs cibernètics, reduint amb eficàcia les barreres contra el crim:

Els costos d’atacs es poden reduir mitjançant l’ús escalable de sistemes AI per completar tasques que normalment requeririen treball, intel·ligència i experiència humanes. Un efecte natural seria ampliar el conjunt d’actors que poden dur a terme atacs particulars, la velocitat a la qual poden dur a terme aquests atacs i el conjunt d’objectius potencials.

L'informe fa quatre recomanacions:

1 - Els responsables polítics han de col·laborar estretament amb investigadors tècnics per investigar, prevenir i mitigar els possibles usos maliciosos de la IA.

2 - Els investigadors i els enginyers en intel·ligència artificial han de prendre seriosament la naturalesa del seu treball, permetent que les consideracions mal adscrites influeixin en les prioritats i normes de recerca i que arribin de manera proactiva als actors rellevants quan les aplicacions nocives siguin previsibles.

3 - Les millors pràctiques s'han d'identificar a les àrees de recerca amb mètodes més madurs per abordar les preocupacions de doble ús, com ara la seguretat informàtica, i si és aplicable al cas de la IA.

4 - Cercar activament d'ampliar la gamma d’interessats i experts del domini que participen en les discussions sobre aquests reptes

Com A.I. pot fer que les estafes actuals siguin més intel·ligents: Per exemple, els atacs de llança de phishing, en què els artistes es representen com a amic, membre de la família o col·lega d’un objectiu per obtenir confiança i extreure informació i diners, ja són una amenaça. Però avui, requereixen una despesa significativa de temps, energia i experiència. Com a A.I. els sistemes augmenten de sofisticació, algunes de les activitats necessàries per a un atac de llança de phishing, com ara recopilar informació sobre un objectiu, poden automatitzar-se. Un phisher podria invertir significativament menys energia en cada grup i orientar més persones.

I si els estafadors comencen a integrar A.I. en les seves derrotes en línia, pot arribar a ser impossible distingir la realitat de la simulació. "A mesura que AI desenvolupa encara més, els chatbots convincents poden provocar la confiança humana mitjançant la participació de la gent en diàlegs més llargs, i potser eventualment es disfressen visualment d'una altra persona en un xat de vídeo", diu l'informe.

Ja hem vist les conseqüències del vídeo generat per màquina en forma de Deepfakes. A mesura que aquestes tecnologies es tornen més accessibles i més fàcils d’usar, els investigadors es preocupen que els mals actors difonguin fotografies fabricades, vídeos i fitxers d’àudio. Això podria donar lloc a campanyes de difamació altament reeixides amb conseqüències polítiques.

Més enllà del teclat: I el malversament potencial no es limita a Internet. A mesura que avançem cap a l’adopció de vehicles autònoms, els pirates informàtics podrien desplegar exemples contradictoris per enganyar els cotxes que condueixen a si mateixos per tal de detectar el seu entorn. "Una imatge d’un senyal de stop amb pocs píxels modificada de maneres específiques, que els humans podrien reconèixer fàcilment que encara són una imatge d’un senyal de stop, podrien ser, malgrat tot, classificades incorrectament com una altra cosa completament per un sistema de IA", diu l’informe.

Altres amenaces inclouen avions no tripulats autònoms amb programari de reconeixement facial integrat per a objectius orientats, atacs coordinats de DOS que imiten el comportament humà i campanyes de desinformació automatitzades i hiper-personalitzades.

L'informe recomana que els investigadors considerin possibles aplicacions malicioses de l'AI. en desenvolupar aquestes tecnologies. Si no s’introdueixen mesures de defensa adequades, és possible que ja tinguem la tecnologia necessària per destruir la humanitat, sense necessitat de robots assassins.

$config[ads_kvadrat] not found