Botbusters.ai, de qué se trata la herramienta israelí que ayuda a identificar contenido creado por IA

botbusters.ai le permite a los usuarios identificar si una imagen, un video o un texto fueron producidos con herramientas de Inteligencia Artificial. Foto: Andrew Neel/Pexels.botbusters.ai le permite a los usuarios identificar si una imagen, un video o un texto fueron producidos con herramientas de Inteligencia Artificial. Foto: Andrew Neel/Pexels.

Uno de los grandes problemas de la Inteligencia Artificial (IA) es que puede utilizarse maliciosamente para desinformar, generar fake-news o como una herramienta para evitar que los alumnos se eximan de hacer sus deberes de manera correcta.

Sin embargo, una empresa israelí desarrolló una plataforma que permite controlar estos aspectos negativos de la IA. Cyabra creó botbusters.ai, una herramienta que utiliza la propia Inteligencia Artificial para determinar si ciertas imágenes o textos fueron generados utilizando IA.

Es una herramienta sencilla, que pueden utilizar los docentes para saber si sus alumnos utilizaron IA para completar sus trabajos. Pero también, es un sistema útil para reconocer a un catfish o una imagen falsa con el objetivo de desinformar. 

El algoritmo de botbuster.ai se entrena constantemente para mejorar la precisión a la hora de brindarle al usuario la probabilidad estimada de la falsedad del contenido.

Uno de los objetivos de la startup es la de exponer el riesgo online a las instituciones, los gobiernos, y también a los usuarios normales. Cyabra trabajó en el pasado con el gobierno taiwanés, para prevenir la información falsa acerca de la vacuna para el COVID-19. Y también con el Departamento de Estado de Estados Unidos para garantizar la seguridad de las elecciones.

Compartir
2 thoughts on “Botbusters.ai, de qué se trata la herramienta israelí que ayuda a identificar contenido creado por IA”
  1. «conversando» con AI me dijo que los territorios ocupado de Gaza…. ahi le recriminé que Israel se habia retirado en 2005… y me pidio disculpas, que se habia «equivocado»

    1. Cuando AI encuentra en la red una respuesta a lo que se le demanda, si no es claramente falsa, la da por buena y no busca más. No tiene criterio, por ahora y espero que nunca, para evaluar entre diferentes opciones. Por esto tantos errores.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.