El cambio que la humanidad tendrá por efecto de la inteligencia artificial (IA) será, tal vez, uno de los más profundos de toda nuestra evolución. Y es algo que hoy no dimensionamos.
El 2023 estará marcado como el año en que las tecnologías de IA conversacional detonaron como el primer escalón de una gran revolución.
Esta semana que pasó Google presentó Bard, su inteligencia artificial de lenguaje natural con la que espera poner frente a la popular ChatGPT, plataformas que sorprenden por su capacidad de interacción y de brindar respuestas eficientes y útiles sobre distintos temas y tópicos, “como humanos”.
Hay que decir que estas tecnologías son apenas el primer estado de esta revolución. Venimos de interactuar casi a diario con ‘inteligencias artificiales débiles’ como Siri o Alexa, que responden a preguntas de manera plana, sin autonomía.
Estamos en la era de las ‘inteligencias artificiales fuertes’ con mayor capacidad de análisis y aprendizaje, pero que dependen del insumo de información al que se conectan y de las solicitudes y pedidos que se les hacen (de las que aprenden, hay que decir). ChatGPT, por ejemplo, no está conectado a internet y la información que posee para ‘hablar’ es de 2021 hacia atrás. Bard, de Google, sí estará conectado y en línea con internet, lo que se supone lo haría aún más poderoso.
Lo que mostró Google en su I/O deja en claro el poder que tendrá Bard, sus capacidades de interacción e integración con distintas aplicaciones propias y terceras; también, de cómo cambiará, para siempre, la manera como buscamos respuesta en Google Search.
¿Qué pasará cuando sean ‘superinteligencias artificiales’? ¿Cuando tengan conciencia, sean autónomas, se automejoren su código y ‘comprendan’ su poder de inteligencia y capacidad de superar a los seres humanos en casi todo?
Eso es, precisamente, lo que ha aterrorizado a personas como Geoffrey Hinton, el conocido ‘padrino de la inteligencia artificial’, quien renunció a Google con sentimiento de culpa (dijo a The New York Times) por lo que aportó su trabajo al desarrollo de una tecnología de la que hay que “pensar mucho en cómo controlarla”.
Y en ese camino han avanzado otros. Europa ya logró coordinar un primer borrador de Ley comunitaria de inteligencia artificial que buscará, entre otros fines, limitar y controlar su desarrollo, uso y apropiación.
Estados Unidos también reunió a las empresas desarrolladoras de esta tecnología para acordar un gran plan nacional de gestión, desarrollo y derechos que mitigue los riesgos de la tecnología. ¿Cuándo tendremos en Colombia una discusión de ese mismo nivel con Gobierno, Congreso, industria, empresa, academia y sociedad civil, sobre el control y la ética de la inteligencia artificial? Habrá que preguntárselo a ChatGPT.
JOSÉ CARLOS GARCÍA
En Twitter: @josecarlostecno