La ética de la Inteligencia Artificial IA en la Escritura  

By John D. Ferrer

Cuando se trata de inteligencia artificial, soy un ludita. Prefiero lo análogo sobre lo digital. Olvida a Pandora y Spotify o incluso los CD. Los discos de vinilo los son todo. Crecí jugando afuera, escalando árboles, persiguiendo cosas, divirtiéndome con palitos, no joysticks, sino sólo palitos. Sí lucían como espadas o armas mucho mejor. Soy un perro labrador, pero alfabetizado. También tengo los conocimientos tecnológicos de un perro normal. Eso es porque soy de la generación X, fui criado antes del internet, antes de las redes sociales y Netflix. Recuerdo Atari, Nintendo, Sega y el palacio de Aladín. Pasé por la era del discado telefónico. Incluso conocí a mi esposa por Myspace. ¡Increíble! Cuando llega el domingo, salgo de casa para ir a la iglesia, apago el celular para oír el sermón. El sermón no va 1.5x de velocidad sino a una velocidad normal y dura una eternidad. Pero es así como sucede. Hay algunas desventajas de ser un ludita de la vieja escuela como yo. Pero hay una gran ventaja. Primero supimos de la IA en la película Terminator. Vimos la inteligencia artificial a través de los lentes de los robots asesinos de Skynet. Aprendimos a temerla antes de caer en la tentación de amarla.

No nos sorprende encontrar que ChatGPT, por ejemplo, plantee algunas amenazas importantes a la escritura moderna. No todo es malo, claro. Los creadores de imágenes por IA son geniales para despertar tu creatividad. Los motores de escritura pueden ser una gran  herramienta de investigación para resumir grandes datos en pequeñas porciones.

Mucho antes del éxito de ChatGPT los correctores ortográficos y gramaticales del mercado nos ayudaban a corregir nuestros escritos sobre la marcha. Estoy seguro que hay tecnología IA rastreando terroristas, bloqueando vendedores telefónicos, rechazando spam y exterminando virus. La IA puede ser maravillosa. Pero, la tecnología puede ser usada para bien o para mal, dependiendo de cómo se emplee. Por eso, a la hora de publicar, debemos ser conscientes de algunos problemas éticos que plantea la IA.

El problema más flagrante de la escritura con IA es el plagio. Si estás escribiendo un documento y usas la IA para generar una frase, un párrafo o más, entonces ese contenido no lo escribiste tú. Si presentas ese escrito como tuyo, estás mintiendo. Eso es plagio. Éticamente, necesitarías reportar al programa IA como un co-autor. Si estás usando la IA para escribir tu blog o artículo en línea, deberías decir al menos: “Escrito con ayuda  de IA, Chat GPT, etc”. Aunque esto es mejor que nada, si eso es lo que puedes decir sobre la IA, sigue siendo engañoso ya que no usaste la IA solamente para comprobar hechos o como ayuda en una investigación. La escritura misma fue producida por un generador de escritura. Por lo tanto, no eres el único autor, porque la IA escribió una porción significativa del artículo, blog o libro mientras afirmas que la autoría es solamente tuya. En ese caso, la IA no solamente te “ayuda”. Ustedes dos son co-autores. Afirmar autoría por material escrito que no escribiste, es engañoso en el mejor de los casos y deshonesto en el peor. No te sorprendas entonces si los publicadores o profesores rechazan tus documentos y te acusen de plagio si alguna vez afirmaste algún escrito de la IA como tuyo.

La IA es una bendición para la investigación. Con la IA puedes conseguir resúmenes rápidamente, condensar toneladas de información y buscar citas, autores y libros poco conocidos. Soy un gran fan de la IA como herramienta de búsqueda. Pero la investigación basada en la IA conlleva un engaño. Las personas pueden sobreestimar radicalmente sus conocimientos en la medida en que confíen en la IA para que “piense” por ellos. 

Considera lo siguiente. Si tuvieras un montacarga y lo usaras para levantar cargas de miles de kilos ¿eso quiere decir que eres fuerte? Claro que no. Un montacargas es una herramienta para levantar cargas pesadas, y eso está bien. Para eso son las herramientas, para hacer el trabajo más fácil. Pero la máquina hizo el trabajo duro, no tú. Así que no eres fuerte. La máquina lo es. Ahora imagina que usas el montacargas no solamente en tu lugar de trabajo, sino que también lo usas en el gimnasio de tu casa para hacer pesas. Todo tu entrenamiento de fuerza lo realizas desde el asiento del conductor. Lo diriges para mover pesos, tirar cargas, voltear neumáticos, empujar trineos, y llevarlo a través de kilómetros de pista de carrera. Usas el montacargas para ejercitarte ¿entonces, ahora ese montacargas hace que seas fuerte? Todavía no. No eres fuerte, probablemente eres más débil, porque esa máquina se está encargando del trabajo práctico que deberías estar haciendo para estar en forma y fuerte. Así es como tratamos a la IA. En lugar de manejarlo como una herramienta en las manos de un artesano experto, se vuelve un miembro artificial que nos incapacita y nos hace codependientes. Por lo tanto, la IA debe estar subordinada a la tarea de aprender. Debe funcionar al servicio de nuestro aprendizaje. Como escritores, publicadores, creadores de contenido, deberíamos aprender sobre los temas que escribimos, para ganar experiencia y conocimientos. Haríamos bien, entonces, en tomar la responsabilidad de la tarea de aprendizaje que tenemos ante nosotros, para que no estemos usando la IA como reemplazo del aprendizaje y conocimiento real, por la apariencia de un sustituto del aprendizaje y conocimiento. Más bien debemos usar la IA para ayudarnos a aprender y adquirir conocimiento. Al final del día, si estás reposteando un contenido de IA del que no aprendiste por tí mismo, entonces, no sabes si ese contenido es correcto, justo o razonable. Si no lo has aprendido, entonces no lo sabes.

Un tercer problema que enfrenta el uso de la IA es que “tiene mente propia”. No me refiero  a que tenga vida autónoma. Probablemente no estamos en el  punto de Yo Robot o incluso Skynet. Hablo sobre cómo la IA no es neutral u objetiva y a menudo se equivoca de forma irrisoria. Si seguiste el fiasco del lanzamiento de Google “Gemini”, entonces sabes de lo que estoy hablando. En febrero de 2024, Google lanzó la IA llamada “Gemini”. Podía generar imágenes pero nunca de gente blanca. Aparentemente, había sido programada para evitar retratar gente blanca y, en su lugar, favorecer imágenes de personas negras y otras minorías. Al parecer, se trata de una iniciativa de DEI inscrita en su código. Por tanto, si pedías imágenes del papa, tal vez obtendrías una de estas en su lugar:

Ahora, no estoy muy preocupado por Gemini 1.0. Estoy más preocupado por los motores de IA que son tan sutiles que nunca te darás cuenta cuando sesgan información en favor de una narrativa política. Para todos los escritores, editores, autores y creadores de contenidos, necesitamos hacer más que tomar crédito por nuestro contenido. Nosotros también debemos tomar nuestra responsabilidad sobre ellos. Eso significa tomar el liderazgo sobre las herramientas que usemos para investigación, la búsqueda de hechos y para aprendizaje. En lugar de dejar que esas herramientas nos guíen a la dirección a la que están programadas, decidimos por nosotros mismos si merece la pena seguir esas direcciones, cambiar el curso según sea necesario y reusar que el algoritmo de Google determine qué es lo que vamos a pensar o creer. Otra manera de decirlo es que debemos esperar que la IA introduzca un cierto nivel de sesgo y parcialidad en la ecuación. Así que, en lugar de confiar en que la IA diga la verdad y reporte eventos con exactitud, necesitamos mantener una saludable dosis de escepticismo por un lado y estar listo para corregir nuestros propios sesgos y los que encontremos programados en la IA.

En un nivel inocente, un programa de IA de escritura puede estar inclinado a favor de realizar una escritura formal – reemplazando todas las contracciones. A un nivel más insidioso, la IA puede insertar un sesgo decididamente partidista – especialmente cuando se trata de temas de agenda política progresiva. Sería ingenuo pensar que Google, Bing, Microsoft, etc. no quieran ni puedan dejar que los prejuicios políticos y religiosos se introduzcan en la programación.

Ahora, tal vez sea un ludita, pero no soy un tonto. Entiendo que al menos que se produzca una catástrofe nuclear o algo parecido, no hay forma de regresar a las impresoras matriciales y máquinas de escribir análogas. No hay forma de regresar a la edad de piedra mientras esas herramientas sigan funcionando. Escribo estas advertencias a ustedes, no como profeta sino como ministro. No preveo que se nos vengan encima desastres tecnológicos. Más bien soy un cristiano animando a todos los aspirantes escritores a dar ejemplo de integridad académica, a escribir bien, a apropiarse de su material y a crecer a través del proceso de escritura.

Ah, y Analogo > Digital. ¡Larga vida al vinilo!

Robándole a Dios (tapa blanda), (Guía de estudio para el profesor) y (Guía de estudio del estudiante) por el Dr. Frank Turek

Por qué no tengo suficiente fe para ser un ateo (serie de DVD completa), (Manual de trabajo del profesor) y (Manual del estudiante) del Dr. Frank Turek recursos


John es ministro licenciado por Charleston Southern (BA), Southern Evangelical Seminary (Seminario Evangélico del Sur) (MDiv) y Southwestern Baptist Theological Seminary (Seminario teológico bautista del suroeste) (ThM, PhD) . Su doctorado es en filosofía de la religión, con especialización en ética. Como nueva edición de Crossexamined en 2023, John aporta una gran experiencia al equipo, incluyendo el debate con ateos, la predicación del Evangelio, la enseñanza de apologética en escuelas e iglesias, la publicación de libros y artículos, y la creación de sitios web. John es también profesor del Equal Rights Institute (Instituto de igualdad de derechos) y presidente de Pella Pro-Life (Pella Pro-Vida) en su ciudad natal de Pella, Iowa. Allí reside con su encantadora y brillante esposa Hillary Ferrer, fundadora de Mama Bear Apologetics (apologética de mamá osa). Juntos se especializan en apologética cultural con énfasis en la formación apologética basada en la familia.

Traducido por Walter Almendras

Editado por Mónica Pirateque

Fuente Original del Blog: https://bit.ly/3YmHnt8 

 

Leave a Reply

Your email address will not be published. Required fields are marked *