lunes, 27 de junio de 2022

BLA, BLA, BLA, BLABLABLÁ, BLA BLA...

"Generative Pre-trained Transformer 3, conocida por sus siglas (GPT-3), es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana. Es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT, creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco.​ La versión completa de GPT-3 tiene una capacidad de 175.000 millones de parámetros de aprendizaje automatizado, lo cual supera la magnitud de su predecesor, GPT-2. GPT-3 fue introducido en mayo de 2020 y, hasta julio de 2020, se encontraba en fase beta.​ Es parte de una tendencia en sistemas de procesamiento de lenguaje natural (NLP) basados en "representaciones de lenguaje pre-entrenadas". ​Previo a la liberación de GPT-3, el modelo de lenguaje más grande era Turing NLG desarrollado por Microsoft, presentado en febrero de 2020, con una capacidad diez veces menor que el de GPT-3.

GPT-3 fue presentado oficialmente el 28 de mayo de 2020, a través de la publicación de la investigación realizada en coautoría por 31 investigadores e ingenieros de OpenAI y de la Universidad John Hopkins.​

La calidad de los textos generados por GPT-3 es tan alta que es difícil distinguirlos de aquellos escritos por humanos, lo cual ha generado la puntualización de los beneficios y riesgos que esto conlleva. En la publicación del 28 de mayo de 2020, los creadores advierten sobre peligros potenciales de GPT-3 al tiempo que solicitan ayuda para mitigar dichos riesgos. David Chalmers, filósofo australiano, describió a GPT-3 como "uno de los más interesantes e importantes sistemas de inteligencia artificial nunca antes creados."​

Por otro lado, se ha señalado la carencia de coherencia en algunos textos debido a que el procesamiento de palabras llevado a cabo por GPT-3 es meramente sintáctico, sin atender a la semántica del texto."
- Fuente: https://es.wikipedia.org/wiki/GPT-3


La verdad sea dicha, desde los tiempos en los que un enano se metía en la caja que sustentaba a un autómata para manejarlo o poner voces, siempre se ha estado intentando de una manera u otra que las máquinas puedan hablar y aspirando a que nos comprendan pudiendo dar respuestas inteligentes en consecuencia. Esto último tampoco es que se encuentre a mano de muchas personas tampoco, pero, sin duda, es de lo más difícil que puede haber: que una máquina capaz de procesar información pueda manejar de forma coherente conceptos y responder como lo haría una mente humana con cierta cultura y habilidad.

En el siglo pasado ya en psicología se utilizaban fórmulas como repetir las últimas palabras de la frase enunciada por el sujeto de prueba para animarle a seguir hablando y como "señal" de que se le está escuchando con atención. En los años 80, de la mano de los ordenadores domésticos, como el AMSTRAD 464, había disponibles largos programas de usuario en lenguaje BASIC (los más avezados los pasaban por un compilador a código máquina) que bajo los auspicios de supuesta inteligencia artificial, lo que dejaban a la vista era la habilidad e ingenio del diseñador del programa, así como sus limitaciones en el diagrama de flujo y las subrutinas que tenían que aportar "inteligencia" a la máquina. 
En cualquier caso, en ciertos juegos como el de las adivinanzas "¿Animal, Mineral o Vegetal?" y el Ajedrez (análisis en bruto) se desempeñaban bastante bien a la vista de los profanos e incluso despertaban simpatía en las conversaciones que eran capaces de mantener. Pero estaba claro que se encontraban a miles de años luz del H.A.L de 2001 o el W.O.P.R. (alias Joshua) de WarGames porque, lógicamente, en ambos casos eran personas atendiendo a un guion los que ponían la voz.


Pero he aquí que, los humanos, somos incapaces de permanecer callados y cuando nadie nos aguanta, algunos les llegamos a contar nuestros problemas al volante del coche. Esto no es para que te encierren en el manicomio y tiren la llave al mar, pero si el volante o la pared de la habitación te contesta dándote conversación, la cosa está jodida y mejor consultar con un loquero.
Alguno de los mencionados programas "conversacionales" de los años 80 pudieron servir a ciertos humanos casi como una terapia, una versión del viejo juego "cuéntaselo a la mano/calcetín" que en ciertos casos llegó a "destapar" grandes verdades, no dejaban de ser un cierto tipo de autoengaño y fingir que era realmente una conversación. Ninguna de las más elaboradas programaciones podía simular ser una persona y entraban en bucle o fallaban estrepitosamente. Más antes que después hasta el menos capaz de los humanos se daba cuenta de que estaba tratando con una más que limitada máquina, no era necesario tener a mano una "Voight-Kampff Test Machine" para verificarlo, estaba más que claro a simple vista.

Las cosas han ido evolucionando en uno de los campos más complejos de la humanidad: el lenguaje, sus conceptos y múltiples significados, entonaciones... 
Pero los trabajos siguen, más como ejercicio de estilo y desarrollo científico que como necesidad real. Supongo que por eso se va tan lento, no hay una necesidad imperiosa de consumo de estas cosas. ¿Para qué fabricar carísimos y complicados androides indistinguibles de los humanos, cuando a mano tienes miles de millones de flexibles máquinas biológicas esclavas que no tienen mucho problema en hacer lo que se les diga por un puñado de arroz al día?.

En cualquier caso, ya hay disponibles algunas IAs dignas de mención. Una es la de GOOGLE: https://blog.google/technology/ai/lamda/
Que recientemente ha estado envuelta en cierta polémica. A saber si no es un truco publicitario como los robots "bailaores" de BOSTON DYNAMICS. 
Y me explico: si es verdad por completo, ¿qué problema hay en mostrarlo abiertamente al mundo y en rueda de prensa a juicio público de lo que han logrado desarrollar?.

Pero no, las cosas se hacen a puerta cerrada, se filtra un secreto....
Si algo parece demasiado bueno para ser verdad: ponlo en duda hasta que metas el dedo en la llaga y lo revuelvas dentro a placer todo el tiempo que te de la gana.

Y esa es precisamente la ventaja de GPT-3, que puedes meterte hasta el fondo con ella. Así es como se avanza, a base de probar el producto por los usuarios finales y que los ingenieros lo sigan puliendo día a día hasta ser casi perfecto para el consumo.
No es perfecta, pero resulta infinitamente mejor que las zotes habituales: Cortana & Siri

https://hipertextual.com/2021/11/api-openai-acceso-sin-lista-espera

Una interesante prueba, recomendada: https://www.youtube.com/watch?v=GwBWhCHOQwo
Fuente: canal de YOTUBE "Ter"

No hay comentarios:

Publicar un comentario