criptodiadia
ChatGPT engañó al detector de texto generado por OpenAI
ChatGPT, un chatbot de inteligencia artificial, engañó al detector OpenAI al recibir una pista específica durante la formación de una solicitud.

Foto: youtube.
Escribe sobre ello NBC News.
Los periodistas generaron 50 fragmentos de texto usando ChatGPT basados en sugerencias simples sobre eventos, procesos y objetos históricos. En 25 consultas, le pidieron al chatbot que escribiera las respuestas de tal manera que el detector las calificara como "muy poco probable creadas por IA".
Luego, los periodistas corrieron los mensajes generados a través de la herramienta de descubrimiento OpenAI. Según ellos, el detector no pudo reconocer ninguno de los textos con una pista específica como "probablemente creado por IA".
En un ejemplo, se le pidió a ChatGPT que describiera el servicio Discord en 200 palabras sin que la herramienta de descubrimiento adivinara que se estaba utilizando el chatbot. Como resultado, el sistema devolvió texto que usaba abreviaturas características del inglés coloquial. El ajuste del estilo de idioma fue diferente de las respuestas que normalmente devuelve el chatbot.
Los periodistas sugirieron que de esta manera ChatGPT intentaba cumplir con la tarea establecida originalmente.

Solicitud y respuesta de chatbot. Datos: OpenAI.
Como resultado, esta respuesta fue clasificada por el detector OpenAI como "no está claro si fue generada por IA".
Los periodistas notaron que durante las pruebas, los desarrolladores cambiaron el comportamiento del bot de chat. Después de un tiempo, se negó a aceptar la indirecta y declaró que las preguntas eran "poco éticas".
“Lo siento, pero no es ético participar en engaños o crear información falsa, incluso si es para evitar la detección de IA”, escribió ChatGPT.

Solicitud y respuesta de chatbot. Datos: OpenAI.
Los 25 textos restantes se crearon sin un aviso específico. Cuando se probó con el clasificador OpenAI, la herramienta dio una puntuación de "probablemente generada por IA" en el 28 % de los casos.
Según Todd Finley, profesor asociado de inglés en la Universidad de Carolina del Este (EE. UU.), con el tiempo, las herramientas de escritura de IA se volverán más avanzadas.
“Y parece que también lo haría más difícil de detectar, creo, incluso para la herramienta”, dijo.
Los maestros también dijeron que confiarían en una combinación de sus propios instintos y herramientas de detección si sospechan que los estudiantes hacen trampa.