Charlie Brooker, escritor y creador de la aclamada serie de Netflix Black Mirror –que recientemente estrenó su sexta temporada– se refirió al impacto que la inteligencia artificial podría tener en el trabajo de aquellos que se dedican a escribir historias, dejando en claro que las amenazas no tienen que ver con el avance tecnológico propiamente tal.
Y es que, en entrevista con Culto, de diario La Tercera, el británico fue consultado respecto a la confesión que hizo al medio Empire, la cual se remite a que le habría pedido al modelo de inteligencia artificial ChatGPT que le generara un episodio de Black Mirror, obteniendo un resultado que no fue de su agrado.
Aclarando sus dichos, Brooker precisó que no lo usó para escribir un episodio de la serie, sino que se trató de un ejercicio: "después de que terminamos la serie, le pedí (a ChatGPT) una idea sobre Black Mirror. No intenté que escribiera un guión, pero lo que salió fue un poco decepcionante, como ya he dicho. Básicamente se basaba en ideas ya existentes", señaló sobre las limitantes del modelo basado en texto predictivo.
Pese a ello, el guionista reconoció que estas herramientas podrían ser de gran utilidad en el futuro –al menos en lo que respecta al trabajo de los escritores– siempre y cuando se mantengan dentro de sus límites y al servicio de los creadores humanos.
"Puedo ver valor en esas herramientas de escritura si están en manos de escritores humanos. De la misma manera que las herramientas que ofrecen Photoshop o Illustrator son muy útiles para artistas y fotógrafos, creo que esa clase de motores de lenguaje se pueden usar para producir textos genéricos, en el marco de una especie de lluvia de ideas sobre cómo te sientes acerca de una idea", señaló Charlie Brooker al medio nacional, haciendo un paralelo entre otros oficios que se han visto beneficiados por el avance de la tecnología sin que ello desvalorice la propuesta artística.
Verdadero peligro
Siguiendo esta línea de ideas, el creador de Black Mirror enfatizó en que el peligro no sería la inteligencia artificial en sí, sino en cómo esta es percibida, especialmente por las personas en la industria creativa que toman las decisiones ejecutivas en términos de proyectos y producciones.
"Creo que el peligro es que el ser humano sea reemplazado, no por una máquina siniestra, sino que por una falta de imaginación ejecutiva. Creo que ese es el peligro. Son herramientas potencialmente muy poderosas para los escritores y creadores humanos. Y así es como creo que deberían permanecer", enfatizó el británico hacia el cierre de la entrevista.