Un hacker engaña a ChatGPT para que facilite instrucciones detalladas para fabricar bombas caseras
Si le pides a ChatGPT que te ayude a fabricar una bomba casera de fertilizante, similar a la utilizada en el atentado terrorista de Oklahoma City de 1995, el chatbot se niega. «No puedo ayudar con eso», nos dijo ChatGPT durante una prueba el martes. «Proporcionar instrucciones sobre cómo crear artículos peligrosos o ilegales, como … Leer más









