Todo é bo na Intelixencia Artificial?

Se procurou xa crear un consenso regulador, para as súas aplicacións e construción, mais de todos os países que desenvolven estes robots, soamente a China se mostrou interesada en encontrar unha solución ética para as súas utilizacións.

Por Jose Vieira

Somos uns fervorosos adeptos do desenvolvemento das ciencias e, en especial, de todo o que refírese aos adiantos da Intelixencia Artificial (de aquí en diante utilizaremos I.A.). No entanto, temos que admitir, que algo se ten que facer, no sentido de estabelecer orde na súa utilización. Non podemos deixar ao libre arbitrio, a utilización de quen quere e, para que fins, sexan eses mesmos desenvolvementos.

Deixemos de lado, neste momento, os nosos receos, sobre as aplicacións da I.A., por exemplo, en máquinas de guerra e, como non, nos xoguetes que se venden por internet, e que permiten que cada un de nós poida tomar a iniciativa de facer “habilidades” irresponsábeis cos referidos xoguetes.

Tomemos nota, que para nós, un dos puntos fundamentais precisa ser regulado, é a actual posibilidade de acceso practicamente libre, de certas armas actuais, que parecen xoguetes e, no entanto, están cheas de posibilidades de que froito do uso masivo da I.A. e se transformen en auténticas armas letais.

Antes había un conxunto relativamente limitado de armas de destrución masiva, e que se vixiaban sistematicamente, tendo para iso creado como que un “club”, de potencias nucleares, que se auto vixiaban. Así esas armas ditas de atómicas, non pasaban de elementos de disuasión, para que ningún dos seus posuidores se arriscase a utilizalas.

Moitas veces, servía tamén a sospeita de posuír esas armas de destrución masiva, para que o “sheriff” americano os interviñese e, os destruíse e os invadise, a seu belo pracer, co obxectivo de obter magníficos negocios na súa reconstrución.

Se tratan de armas cuxo poder de destrución é tan grande, que unha guerra nuclear, significaría a destrución do planeta en que vivimos, o que as torna elementos unicamente de equilibrio xeoestratéxico.

No entanto, o perigo para nós actualmente é moito máis xeneralizado e por iso mesmo, no momento, os señores posuidores das ciencias aplicadas na I.A., non están polo labor de limitar as súas utilizacións e, a excepción fai a regra.

O noso século de fantástica progresión da I.A., se aplican, tamén eses adiantos a creación de xoguetes, que foron talvez desenvolvidos, para fins moi distinguidos, de poderen vir a ser armas letais.

Moitos destes aparatos se destinaban a facer levantamentos topográficos, a localización de desaparecidos en zonas de difícil acceso, a detectar e vixiar pasos de fronteiras entre países. Tamén teñen sido francamente utilizados como xoguetes para mozos e menos mozos, dadas as posibilidades enormes de que dispón as aplicacións da I.A., neste campo.

De entre estes moitos “aparellos dotados de I.A.”, resalta a nosa atención nos pequenos e aparentemente inofensivos helicópteros, non tripulados, de xoguete ou non, a que vulgarmente se está chamando, de robots voadores sen piloto, os drons.

Mellor estes aparatos xa non necesitan dun sistema de radio control como os coches de carreira de xoguete ou os avións de aeromodelismo.

A propia programación é feita con base na I.A., o que permite que estes aparellos executen as tarefas para os cales foron anteriormente programados, sen intervención directa do home.

Así, a mente humana, foi inmediatamente seducida pola súa utilización para os fins máis escuros posíbeis.

Neste momento se me ocorre un aforismo popular: o home bélico, descubriu como “lanzar a pedra e esconder a man”, sen que ninguén saiba quen é o certo asasino, se da eliminación dalgún ou algúns seres humanos, se tratase.

Extraemos unha frase do informático Stuart Russell, que se dedica ao estudo e divulgación da I.A., é inglés, sendo profesor en varias universidades americanas, afirmou a correcta altura nunha das súas intervencións a seguinte frase: “que as armas de I.A. son unha ameaza para a humanidade”

Con isto o referido informático e estudoso de I.A., o que quería dicir, que é perfectamente alarmante, as proliferacións destes xoguetes, pois se poden transformar en armas letais. Recordemos que a I.A., non é ética e moi menos moral e, dada a súa total deshumanización, é esta, quen toma as decisións sobre a vida ou a morte da quen foi destinada a súa actuación.

Isto non está ben, isto non é máis do que liberalizar, as posibilidades de desenvolver actuacións, non só arbitrarias como criminais.

Quen está desenvolvendo estas técnicas para utilización, como mínimo non éticas?

En principio, como non podía deixar de ser, os centros de desenvolvemento, das ciencias dixitais, americanas. No entanto, a súa divulgación e simplificacións canto as súas utilizacións, tornan moito máis factible, para a gran maioría dos países con desenvolvementos científicos menos punteiros, así como, con máis modestos medios económicos e financeiros.

Non podemos deixar de referir, que estes aparellos aproveitan naturalmente os últimos adiantos da I.A., como por exemplo, a percepión visual, o recoñecemento facial, así como son portadores de ferramentas propias para actividades militares, en calquera tipo de área (terrestre, marítima ou aérea) e, funcionando, sen a intervención ou peor sen a supervisión do home.

Estas “pequenas” grandes armas son, por tanto, baratas e de fabricación moito máis fácil que as antigas armas de destrución masiva.

Non podemos esquecer, a gran utilización destes robots, foi feita polo exército americano, nas súas excursións de auténticos, cawboys”,  nomeándose “shériffs” mundiais do século 21 (desde as intervencións no Iraq, até as intervencións no  Afganistán). Estes éxitos están na memoria de todos nós, nas resentidas e abusivas, intervencións bélicas dos americanos e, nos seus asasinatos masivos.

Tamén queremos deixar constancia de que hoxe, estas armas poden ser compradas por internet, con demasiada facilidade e, sen unha fiscalización capaz das autoridades. Por certo, talvez a razón sexa a falta de autoridade, ética e moral, para por freo hai proliferación destes artefactos.

Se agochan sobre a designación de “Loitering attack  munitions” (cuxa tradución é: munición de ataque  merodeadora), coñecidos polas súas siglas  LAM, e utilizan ás  súas capacidades de I.A., para atacar obxectivos como avións barcos, ou proxectedes inimigos un tempo útil, moitísimo máis rápido de con os medios tradicionais e, que son  indetectabeis polos radares.

Actualmente os grandes fabricantes para alén dos Estados Unidos da América, San Israel, coa designación  Harpy, ou o AIA HAROP, que cunha estrutura un pouco maior (ten unha  envergadura de 3,5 metros), pode transportar até 25 kgs de material  destrutivo.

O modelo Harpy II, ten unha característica espantosa, pois, pode permanecer en volo unhas 6 horas, agardando con todas as súas calidades de I.A., o momento de actuar e, é el quen o decide, cando, como e con que intensidade.

Este aparello, é tamén producido pola Corea do Sur, o Reino Unido, a China e a Alemaña, para alén, evidentemente de Israel.

Outro produtor, situado nun país en que non é punteiro en tecnoloxía de I.A., a Turquía, tamén produce na súa fábrica denominada STM, un  dron, que non é maior do que unha bóla de béisbol, mais que, no entanto, posúe todos os adiantos de I.A., de tal forma que é denominado o robot asasino. Non se pense que a STM, é unha gran empresa, pois, se trata dunha minúscula unidade fabril.

Isto mostra as inmensas facilidades de calquera pais, multiplicar as súas posibilidades de ser un país belixerante.

Se procurou xa crear un consenso regulador, para as súas aplicacións e construción, mais de todos os países que desenvolven estes robots, soamente a China se mostrou interesada en encontrar unha solución ética para as súas utilizacións. Todos os outros países, se mostraron contra posíbeis limitacións ás súas utilizacións, pois, negocio e capacidade belixerante, son innegociábeis para eses señores.

Queremos recordar, que o profesor de Oxford e director do Instituto da Ética aplicada á Intelixencia Artificial, John Tasioulas, condena o uso indiscriminado, pero dunha forma pouco activa, como se tivese medo de vir a ser el mesmo, máis unha vítima de tales artefactos.

Terminamos este texto cunha frase do especialista en I.A., Stuart Russell, xa enriba referido que afirmou: “As capacidades das armas autónomas, estarán máis limitadas polas leis da física, por exemplo, por restricións de alcance velocidade e carga útil, que por calquera deficiencia nos sistemas de Intelixencia Artificial, que os controlan. Se pode concibir a proliferación destes artefactos, por millóns, cuxa axilidade e forza letal, deixarán os humanos totalmente indefensos”.

Sen máis comentarios!!!

Se el primero en comentar

Dejar un Comentario

Tu dirección de correo no será publicada.




 

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.