domingo, 19 de mayo de 2024

No quiero decir «os lo advertí», pero...

...os lo advertí.

No te hagas el ofendido, que si eres habitual de la bitácora ya sabes que aquí somos mucho de decir «os lo advertí», y, si no eres habitual, mejor que te vayas enterando ya.

Señoras y señores, lo de las IAs generativas se nos está yendo de las manos.

Pero mucho.

Que, honestamente, pocos van a notar el reemplazo del talento por la Inteligencia Artificial porque, desde ya hace bastante tiempo, los artistas han empezado a comportarse como IAs. Que una de las razones de la huelga de 2023 (si no recuerdas o no has leído nada al respecto, aquí te lo damos masticadito, amado lector) fue precisamente la amenaza de los grandes estudios de cine de empezar a usar Inteligencia Artificial para escribir guiones. Que difícilmente habrían sido peores que los que esos mismos guionistas llevan una década escribiendo.

Y sin embargo, insisto: con lo de las IAs generativas nos estamos pasando siete pueblos.

(Que el verdadero problema no es la Inteligencia Artificial en sí, sino la Estupidez Natural de la humanidad).


De la misma forma en que la ciencia-ficción de la Edad de Oro fue incapaz de pronosticar conceptos hoy en día cotidianos como los teléfonos móviles, Internet y las Redes Sociales o la impresión 3D, la ciencia-ficción de la Edad de Bronce fue incapaz de predecir el progreso de la Inteligencia Artificial tal y como se está desarrollando en este preciso momento histórico.

Los novelistas distópicos y los guionistas de Hollywood nos hicieron creer que debía preocuparnos la posibilidad de que la IA nos sedujese así:


O así:


Cuando, en realidad, la IA que más probabilidades tiene de seducirnos es ésta:

¡Dale! ¡DALE! ¡Hasta que te salgan chispas del pito!

De la misma forma, se nos dijo que debíamos tener muy presente la posibilidad de que nos matase una IA como ésta:


Cuando la IA que nos va a matar es esta otra:

Me vas a odiar el resto de tu vida.

Pero, claro, a toro pasado todos somos profetas, así que tampoco se lo tengamos en cuenta.

Hay gente muy preocupada por la posibilidad de que la Inteligencia Artificial les robe el trabajo. En parte, supongo, porque su trabajo es tan innecesario, mecánico y rutinario que puede ser desempeñado por una IA. Y yo no digo que esos profesionales preocupados no tengan motivos para arrugar el ano. Digo que a mí, por el momento, y a falta de más o mejores argumentos para empezar a inquietarme, lo que de verdad me encoge la pichula es el uso que le estamos dando a la IA y las extrañas consecuencias que comienzan a derivarse de él.

¿Qué pensaría el buen doctor Asimov si viese que una de las primeras aplicaciones que le hemos buscado a la Inteligencia Artificial Generativa es crear porno?

En serio.

Muy en serio.
(No pinches en los enlaces si eres menor de edad, que te vas a buscar una bronca con tus viejos).
Sí. Sí, claro. Tienes razón, oh, bien informado lector. Con lo guarrillo que era el bueno de Isaac, probablemente le habría dado mucho uso al invento.


La chica de encima de este párrafo no existe. No tiene Instagram, ni DNI, ni cuenta en Onlyfans. A esa belleza casi seráfica me la he inventado yo. He metido algunos parámetros en la línea de comandos de una IA generativa y he dejado que el algoritmo hiciese todo el trabajo. Y a la siguiente chica también la he sintetizado yo, de la misma manera, con la indispensable colaboración de una app de IA generativa:

¿Que por qué asiática? Porque, como ya hemos dicho en el pasado, en el Paratroopers nos ponen muy malos las asiáticas. ¿Que por qué nos 
ponen muy malos? Y yo qué sé. Es un misterio.

A ésta no la han hecho con IA. Creo.

Y no, no soy el primero. Ni seré el último en hacerlo. Es más, esto de hacer dibujitos de señoras macizas con Inteligencia Artificial está llegando a unos niveles de fotorrealismo que empiezan a dar cagalera.

(Aunque, puestos a elegir, siempre habrá los que prefieran una waifu anime por encima de todas las cosas).
A ésta también me la he inventado yo. Con otra aplicación de IA.

Pero guárdate el carallo, oh voluptuoso lector, que no vamos a dedicar esta entrada del Paratroopers a ponértela como el cuello de un cantaor, sino a tratar algunos de los malos usos de la IA y de las consecuencias que eso ha tenido para lo que nos ocupa, que es toda esa mierda de escribir, contar historia y hacérselas llegar a sus potenciales lectores.

GIF de Riley para que se te pase el disgusto.

Que en el momento en que la IA se convirtiese en una herramienta accesible iba a comenzar a cambiar nuestra sociedad es una evidencia que no se le escapaba a nadie con media neurona.

O, si no, que se lo pregunten, por ejemplo, a ese abogado cojonazos de Florida (sabes que va a haber tomate desde el momento en que has leído «Florida») que usó ChatGPT para preparar un juicio.

Espóiler: fue un error.

Steven Schwartz, letrado del bufete Levidow & Oberman con quince años de experiencia, representaba en un tribunal de Fort Myers, Florida, a un cliente que afirmaba haber sufrido lesiones al ser golpeado por un carrito de servicio durante un vuelo de Avianca. Naturalmente, los abogados de Avianca pidieron al juez que desestimase el caso, y Su Señoría emplazó a Schwartz para que presentase sus argumentos en contra. Schwartz, de quien comenzamos a preguntarnos cómo se las arregló para aprobar la carrera de Derecho y el examen del Colegio de Abogados de Florida, tenía la responsabilidad profesional de preparar su alegato para el juez, pero el desaforado peso de sus enormes cojonazos le hacía muy cuesta arriba el trabajo de documentación, así que pidió a ChatGPT que le buscase resoluciones judiciales que respaldasen su argumentación.

Y ChatGPT lo hizo. Citó el caso «Varghese contra China Southern Airlines», citó también «Shaboon contra Egyptair» y el ya clásico «Martínez contra Delta Airlines». Y Schwartz se plantó ante el juez, Kevin Castle, y le soltó ese chorro de jurisprudencia para convencerlo de que fallase a favor de su cliente.

Y el juez le replicó «pero... ¿qué cojones...?».

Ninguno de esos casos existe. No hay un «Petersen contra Iran Air», ni un «Martínez contra Delta Airlines», ni un «Cristo Que Lo Fundó contra Tuercepollas Vueling». ChatGPT se había INVENTADO todos esos precedentes. El pelotudo de Schwartz había pedido a la IA que le hiciese el trabajo de investigación, que a él eso como que le daba galbana, pero lo que ChatGPT hizo fue, simplemente, clonar el ESTILO LITERARIO de un alegato de defensa y sacarse la «información» de su chocho morenote.
(Algunos malos estudiantes han comenzado a usar también ChatGPT para escribir sus trabajos académicos. No veas qué risas cuando los pillan).
«¡Loooooles, puto lúser! ¡A septiembre que vas!»

Así que el juez Castle, que no daba crédito a los huevos TAMAÑO CAMPANAS del letrado cojonazos, convocó una nueva vista en la que esperaba oír los argumentos de Schwartz para no ser sancionado en base a la norma 11 del Reglamento Federal de Procesos civiles.

Y Schwartz no debió de llevar especialmente bien su propia defensa (o tuvo la SANTA POLLA de usar otra vez ChatGPT), porque el Comité de Quejas del Tribunal de Florida suspendió su licencia durante un año, le impuso una multa de las que dan fiebre y le exigió completar varios talleres y cursos de «buenas prácticas» si quiere volver a ejercer el Derecho en el Estado de Florida. Sanciones que, en palabras del mismo juez Castle, Schwartz se podría haber ahorrado si hubiese admitido desde el principio que se había inventado las sentencias o que le había pedido a una Inteligencia Artificial que le hiciese el trabajo.

Y ahora, por supuesto, se están aprobando leyes por todo Estados Unidos para regular el uso de IA en el oficio de la judicatura. Eeeeh tenía el enlace en el portapapeles y cerré la pestaña del navegador, pero no sé qué coño he hecho y lo he perdido y me da pereza buscarlo de nuevo.
De verdad que lo nuestro con las asiáticas es inexplicable.

Entre los muchos malos usos de la IA generativa, además del ya citado, destacan, para empezar, el deepfake, que puede ser empleado como herramienta de manipulación de la opinión pública y ha alcanzado un grado de sofisticación que pronto, si no ya, nos va a resultar imposible distinguir los vídeos y grabaciones falsas de las verdaderas (he visto una grabación de Obama defendiendo al Ku Klux Klan, y escojo creer que es falsa). Y, si el que está detrás de dichas grabaciones tiene un programa político, échate a temblar.

Esta tecnología se ha empleado, también, cómo no, para crear porno. Ponle la cara de tu actriz/actor/personaje de cómic/manga/anime favorito a Johnny Sims o Peta Jensen y echa mano a la vaselina. O, en una vertiente todavía más siniestra, crea vídeos FALSOS de Zentolla, digo Zendaya, por ejemplo, celebrando un gang-bang con potros salvajes, y chantajéala («o me das pasta o suelto esto en la Interné»). Y si crees que estoy exagerando, déjame que te avise de un ciberataque que estuvo de moda antes del confinamiento coronavírico: a través de aplicaciones de citas, una «chica» (en realidad un hacker hijo de puta) te convencía para que le enviases vídeos y fotos de tu feo careto («¡es que quiero conocerte!»), los pegaba con herramientas de IA generativa en vídeos hardcore de lo más sórdidos y, después de hacerte otra vez la del trile para conseguir tus contactos personales, te exigía 
un rescate en bitcoins a cambio de no enviarle esos vídeos a toda tu familia y amigos.

En serio.

Le noto algo raro a Bardem.

La suplantación de identidad es otro de los peligros de esta nueva herramienta computacional. Con el software adecuado, te puedes hacer pasar por cualquiera, literalmente CUALQUIERA en una videollamada o en un streaming. Lo que en Misión Imposible requiere máscaras de látex ultrasofisticadas, moduladores de voz disimulados y un equipo de superespías experimentados, tu primo el Metadonas lo puede conseguir, vía cámara web, con unas cuantas líneas de código.

Acepta mi palabra. Tú no quieres ver ni siquiera al 10% de tus influencers favoritas sin los cuarenta Gigabytes de filtros que se aplican en sus vídeos.

Te lo juro.

Y de la suplantación de identidad y del plagio literario («¡aaaaaaaaah, ahora lo entiendooooo!», te oigo decir desde aquí), otro de los peligros más evidentes de la IA, va esta entrada del Paratroopers.

Mira si esto de las IAs generativas se está empezando a desmadrar que, desde hace unos meses, cuando subes un libro a Amazon KDP, te encuentras, en el formulario on-line de inscripción de la obra, un casillero, que antes no existía, para declarar si todo o parte de tu libro ha sido generado por una Inteligencia Artificial.

¿Quieres saber por qué la megacorporación de Jeff Bezos se ha visto obligada a hacer algo así?

La escritora Jane Friedman (una escritora que escribe artículos, newsletters y manuales de escritura. No. En serio) tuvo prácticamente que amenazar a Amazon con llevarlos a los tribunales si no retiraban de su catálogo media docena de títulos que algún cabronías hijo de puta había subido a la tienda, HACIÉNDOSE PASAR POR ELLA. Un lector se había puesto en contacto con Friedman, confuso y estupefacto por la mala calidad de uno de esos libros en disputa, y la escritora de Ohio descubrió el pastel. Algún mediahostia había cocinado, total o parcialmente, con una IA generativa seis obras falsas de Jane Friedman  y las había subido a Amazon con la intención, suponemos, de aprovecharse de la notoriedad del nombre de un autor más o menos reconocido (pero no tan famoso como J.K. Rowling, digamos, para no agitar demasiado las aguas) y embolsarse la pasta de sus incautos lectores.


Para sumar insulto al agravio, los títulos plagiados también tenían ficha abierta en el perfil genuino de la autora en Goodreads. Aunque la megacorporación de Jeff Bezos, en un primer momento, se negó a retirar los libros falsamente atribuidos a Friedman si ésta no era capaz de justificar que poseía los derechos exclusivos sobre «la marca comercial Jane Friedman» ("Please provide us with any trademark registration numbers that relate to your claim"), finalmente los acabó sacando de su catálogo.
Una de las «obras» retiradas.

El cabronazo plagiario había, presuntamente, entrenado un modelo de IA a partir de los textos de Jane Friedman disponibles en su página web, la había puesto a escribir libros copiando su estilo y luego los había subido a Amazon. Y no es el primer caso de robo de identidad literaria, facilitado por la Inteligencia Artificial, que conocíamos. Ya en 2018, el escritor Patrick Reames había denunciado que un estafador había robado su número de la Seguridad Social para subir a Amazon un libro falsamente atribuido a él. Reames, que no se autopublicaba (el muy pijo consiguió editor), descubrió que alguien le había creado una cuenta en Amazon CreateSpace y subido un libro titulado Lower Days, Ahead al precio de 555 dólares, que llevaba once semanas a la venta y que ya habían comprado 90 personas.
Más misterioso que esto, pocas cosas.

Entre otras medidas tomadas por Amazon para impedir que se la vuelvan a colar, han impuesto un límite diario a la cantidad de títulos diarios de un mismo autor que el sistema permite subir a KDP CreateSpace. La respuesta es tres títulos. Amazon ha tenido que topar el número diario de libros que un mismo autor puede subir a su página de autoedición porque, literalmente, estaban siendo AVASALLADOS por un auténtico TSUNAMI de obras generadas por Inteligencia Artificial.

Y ni siquiera voy a abrir el melón de la originalidad, el arte, la superioridad del talento y la sensibilidad humanas, la amenaza a la calidad literaria que supone la proliferación de la IA generativa... Hoy no se trata de eso. Las dos principales amenazas de esta tecnología a la creación literaria son reputacional (un autor puede ver extraordinaria, quizá irremisiblemente perjudicada, su cantera de lectores si una riada de títulos mal cocinados, pero firmados con su nombre, inundan el mercado) y delincuencial. Sí, delincuencial. Porque una posible explicación de este CHORRO de obras cutres firmadas por autores de renombre (pero no demasiado conspicuos, para minimizar la exposición del fraude), es que el crimen organizado haya adoptado esta estrategia como forma de BLANQUEO DE CAPITALES. El mismo Reames, citado más arriba, lo sugiere así. «No hay puta manera de que 90 personas en once semanas hayan caído en esta estafa vía Amazon» ("There is no way in hell that 90 people in 11 weeks fell for this Amazon-hosted scam"). Alguien habría estado comprando esos ejemplares de precio ridículamente inflado, empleando números robados de tarjetas de crédito, y se habría embolsado, en forma de dinero «limpio»
en concepto de derechos de autor, las regalías del programa KDP.
(También en el caso de Reames, Amazon se afeitó para arriba, negándose a proporcionar al autor detalles de adónde estaban enviando los royalties del libro falsamente atribuido a él, con lo cual Patrick Reames tuvo que dar muy engorrosas explicaciones a Hacienda ese año fiscal).

Y el de Reames no es en absoluto un caso extraordinario. Había otros libros disponibles en CreateSpace que no contenían más que mierda y encima se vendían a precios absurdos. Shamalamadingdong’s A Poor Excuse for a Good Title: I Lied («Una mala excusa para un buen título de Shamalamadingdong: mentí»), un volumen que se vendía en rústica a 250 dólares y sólo contenía una frase ("Once upon a time there was a chicken and a boy followed it into a garage, thinking it was a magic portal, but alas it was just a garage"), repetida página tras página, ha sido retirado ya , gracias a Sara Sampaio Dominátrix. Así como han retirado también esa chifladura de 24 páginas y un precio de venta de casi tres mil dólares titulado I Have Abundance Overflowing In My Life Forever: Brinks Trucks Follow Me Everrywhere I Go Eternally (Whatever You Ask Believe Receive) (Volume 1) y escrito por un tal Rich Dan Edward Knight Sr (¿«sénior»?), a quien no conoce ni la puta madre que lo parió pero que, de alguna manera, se las ha arreglado para subir, en el momento en que escribo esta artículo, otro libro a Amazon, de nuevo de 24 páginas pero al más modestito precio de 190 dólares con 66 centavos el volumen. Que así no llama tanto la atención.
Capturita de pantalla para la posteridad, que luego estas cosas se borran y...

Lo cual sólo confirma nuestra tesis de partida:

El verdadero problema de nuestra década no es la Inteligencia Artificial, sino la Estupidez Natural.

O tempora o mores!

No hay comentarios:

Publicar un comentario

Ni SPAM ni Trolls, gracias. En ese aspecto, estamos más que servidos.