La divulgación obligatoria del uso de la inteligencia artificial podría abrir la caja de Pandora
¿Utilizas inteligencia artificial? Yo uso. En todo. Tener acceso sería estúpido si no lo utilizara. Pero entonces ¿por qué nadie quiere responder la pregunta?
Hoy en día la IA impregna casi todos los aspectos de nuestras vidas, desde las recomendaciones de productos hasta los diagnósticos médicos avanzados, pero preferimos no hablar de ello. Antes nos comportábamos como si «ella» fuera parte de una vergüenza secreta o inspirada.
Las razones por las que esto sucede están inscritas en la verdadera esencia del ser humano, quien normalmente oculta su comportamiento al desconocer cómo reaccionará el “otro”. En cuestiones que tienen implicaciones éticas o morales, como ocurre con el uso de la IA, esto es natural.
Nuestra lógica ética heredada de la Contrarreforma, en sociedades como la nuestra –donde la culpa siempre prima sobre el mérito y el placer–, explica esta opción por la simulación.
Pero la IA no es una cosa más en la lista de pecados capitales, que aumenta nuestra glotonería o exacerba nuestra vanidad; impacta directamente en las relaciones sociales de la vida cotidiana, creando un gigantesco diferencial de productividad entre quienes lo usan y quienes no, y precisamente por esta razón es necesario asumirlo y explicarlo en lugar de ocultarlo.
Es en este sentido, invocando la promoción de la transparencia y la salvaguardia de la democracia –anticipándose a las elecciones de fin de año, y como ha ocurrido anteriormente–, que la Justicia vuelve a anticiparse a la política, la academia y los medios de comunicación, tomando la delantera en la regulación. .
Pero, al aprobar una resolución que determina que «el uso de inteligencia artificial sólo podrá utilizarse en campañas con la advertencia de que el contenido fue creado con ella», el Tribunal Superior Electoral (TSE) plantea interrogantes muy serios.
Dado que es unánime que prohibir los deepfakes es una necesidad, la obligatoriedad de revelar que en la generación de contenidos se utiliza inteligencia artificial —cuando hoy probablemente todo aquel que genera contenidos, en un momento u otro del proceso, ya la utiliza— abre un Caja de Pandora.
Quien use IA para producir contenido: yo la uso, tú la usas, él la usa, nosotros la usamos, tú la usas, ellos la usan; ¡no vale mentir!—ya sabes que hoy el producto final incorpora elementos que, voluntaria o involuntariamente, resultan de él. También sabes que todo el contenido generado puede incluirse en la etiqueta única de «contenido sintético».
Por lo tanto, esta buena y valiosa idea, identificar el uso de la IA, se ve irremediablemente comprometida. En primer lugar, por motivos técnicos, porque es imposible demostrar que, por ejemplo, esta columna no incorpore ningún elemento de IA. Pero, sobre todo por razones prácticas; Si hoy todo se hace mediante IA, ¿qué sentido tiene la etiqueta?
El miedo a la deshumanización, la creciente dependencia, la necesidad de transparencia en cuestiones éticas y morales —cuestiones destacadas por la necesidad de regular la IA— siempre han surgido a lo largo de la historia y, sobre todo, siempre han sido elementos de dominación y poder.
Es mucho más importante garantizar que todos tengan acceso a la IA que señalar (o culpar, como les gusta hacer a los humanos) a quienes la utilizan.
Por eso la pregunta «¿usas inteligencia artificial?» Está Mal. La correcta es: «¿Por qué no lo usas?»
A lo largo de la historia siempre hay alguien que quiere «desinventar» la rueda.
ENLACE PRESENTE: ¿Te gustó este texto? Los suscriptores podrán acceder a cinco accesos gratuitos desde cualquier enlace al día. Simplemente haga clic en la F azul a continuación.