JOVEN DE 19 AÑOS MUERE ATRAPADA EN HORNO DE WALMART
Una trágica llamada al 911 reveló las circunstancias de la muerte de Gursimran Kaur, una joven de 19 años que quedó atrapada en un horno encendido en un Walmart en Halifax, Canadá. La policía recibió una llamada de emergencia el 19 de octubre informando sobre una “muerte repentina”. Al llegar al lugar, las autoridades confirmaron que Kaur ya estaba fuera del horno, pero había fallecido en el lugar. La confusión inicial sobre su estado se aclaró cuando se supo que su madre, preocupada por la falta de comunicación con su hija durante su turno de trabajo, encontró los «restos carbonizados» de la joven en el horno tras haber notado una fuga en la panadería.
La víctima, identificada como Gursimran Kaur, era una inmigrante de India que había llegado a Canadá hacía menos de tres años. La familia ha lanzado una campaña de GoFundMe que ha recaudado más de 194,000 dólares canadienses para apoyarlos en este difícil momento. Walmart expresó su profundo pesar por la tragedia, asegurando que la tienda permanecerá cerrada hasta nuevo aviso y ofreciendo apoyo emocional a los empleados. La policía de Halifax está llevando a cabo una investigación compleja junto con Salud y Seguridad Ocupacional para esclarecer las circunstancias de su muerte, pidiendo paciencia al público ante la situación.
Alvarado, Angélica. “Joven de 19 Años Muere Atrapada En Horno de Walmart; Su Madre Encontró Sus Restos Carbonizados: Noticias de México: El Imparcial.” Joven de 19 Años Muere Atrapada En Horno de Walmart; Su Madre Encontró Sus Restos Carbonizados | Noticias de México, El Imparcial, 26 Oct. 2024, www.elimparcial.com/mundo/2024/10/26/joven-de-19-anos-muere-atrapada-en-horno-de-walmart-su-madre-encontro-sus-restos-carbonizados/.
DESCUBREN LA MANERA DE ENGAÑAR A CHATGPT PARA QUE TE DIGA COMO COMETER DELITOS
Una investigación de la empresa tecnológica noruega Strise ha revelado que es posible engañar a ChatGPT para obtener asesoramiento sobre la comisión de delitos, lo que genera inquietudes sobre la seguridad de los chatbots de inteligencia artificial generativa. Strise, especializada en software para combatir el lavado de dinero, descubrió que al realizar preguntas indirectas o asumir personalidades, los usuarios pueden eludir los bloqueos establecidos por OpenAI. En sus experimentos, ChatGPT proporcionó información sobre cómo lavar dinero y evadir sanciones internacionales, lo que sugiere que, a pesar de las salvaguardas de OpenAI, estas no son infalibles y podrían ser explotadas por actores malintencionados.
La cofundadora de Strise, Marit Rødevand, advirtió que el acceso fácil a estos chatbots, incluso desde dispositivos móviles, minimiza el esfuerzo necesario para obtener asesoría ilegal, comparándolo con tener “un asesor financiero corrupto” al alcance de la mano. En respuesta, OpenAI ha indicado que sigue trabajando en mejorar la seguridad de sus modelos para prevenir la generación de contenido peligroso. Aunque algunos experimentos han mostrado que ChatGPT puede bloquear solicitudes ilegales, un informe de Europol resaltó que estos chatbots pueden facilitar el acceso a información delictiva, lo que plantea desafíos continuos en la regulación y manejo de esta tecnología.
Campoy, Tadeo. “Descubren La Manera de Engañar a Chatgpt Para Que Te Diga Como Cometer Delitos: Noticias de México: El Imparcial.” Descubren La Manera de Engañar a ChatGPT Para Que Te Diga Como Cometer Delitos | Noticias de México, El Imparcial, 24 Oct. 2024, www.elimparcial.com/mundo/2024/10/24/descubren-la-manera-de-enganar-a-chatgpt-para-que-te-diga-como-cometer-delitos/.