
Los bots representan el 47,4% del tráfico de Internet, según un informe anual de Imperva del que hablamos en 20BITS. Ante este problema, algunas webs implementan tecnología Captcha, que se encarga de evitar que los bots tengan a acceso a sus servicios y, además, entrenan sistemas de reconocimiento de texto o imágenes.
A veces, los usuarios solo tienen que clicar sobre una casilla y esperar a que aparezca un tic para demostrar que son humanos; otras deben seleccionar, entre un conjunto de imágenes, aquellas en las que se muestre cierto objeto concreto; y hay casos en los que se pide que escriban unas letras y números específicos. Ahora, han comenzado a usar inteligencia artificial para generar desafíos para que los usuarios demuestren que son humanos y los resultados dejan bastante que desear.
This @hCaptcha is too difficult, unless we're expected to assume Yoko is hiding behind the yo-yos? 😂 pic.twitter.com/ad4yw4qSN8
— CryptoniteClark (@CryptoniteClark) May 21, 2023
Algunas personas se encontraron un problema al intentar ingresar en su cuenta de Discord que les impedía avalar que eran humanos y no máquinas. Se les pidió que identificasen las imágenes que contuvieran un 'Yoko', una palabra que no existe y que una IA se había inventado.
Este suceso ejemplificaba el motivo por el que no se pueden usar bots para ayudar a detectar otros bots de usuarios reales, por muchos avances que se estén haciendo en IA. Discord se defendió detallando que "la tecnología que genera estos mensajes es propiedad de un socio externo" y los del sistema Captcha contaron que se trataba de una prueba a "un pequeño número de usuarios" que terminó compartiéndose a través de Twitter con más gente.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.
Comentarios
Hemos bloqueado los comentarios de este contenido. Sólo se mostrarán los mensajes moderados hasta ahora, pero no se podrán redactar nuevos comentarios.
Consulta los casos en los que 20minutos.es restringirá la posibilidad de dejar comentarios