Este chatbot basado en inteligencia artificial quiere ser tu asistente personal
Pi es un nuevo chatbot de inteligencia artificial (IA) creado por la empresa inicial Inflection AI que, según declama esta compañía, ayuda a las personas a mejorar su bienestar y emociones.
Esta herramienta se diferencia de ChatGPT porque no redacta textos y tampoco busca información –entre otras opciones–. Uno de sus creadores, Mustafa Suleyman (cofundador de Google DeepMind) afirmó al diario Financial Times que Pi "está diseñado exclusivamente para una conversación relajada, informativa y de apoyo".
Además, quiere ser "útil, amable y divertido" para que los usuarios pidan consejo, pregunten dudas o hablen sobre cualquier tema. Este bot fue diseñado para ofrecer consejos similares a los que daría una persona real.
También mantiene conversaciones fluidas y no ofrece la posibilidad de reiniciar una conversión –a menos que los internautas utilicen diferentes credenciales de acceso-.
Pi solicita a los usuarios que añadan un número de teléfono después de diez interacciones. De esta manera, la inteligencia artificial envía un mensaje de texto preguntándoles cómo están. Sin embargo, los internautas pueden mandar un mensaje con la palabra Pause para el bot deje en paz a los usuarios.
Respecto a su tecnología, Pi se basa en el modelo LLM (grandes modelos lingüísticos, en español). Los bots están entrenados para generar respuestas de texto al analizar la información que está disponible en Internet. Pi está disponible de manera gratuita para el navegador web y dispositivos iOS. Inflection AI ofrece su integración en otros servicios para que los usuarios puedan utilizar el chatbot en aplicaciones como WhatsApp, Instagram, Facebook Messenger y Apple Message.
Samsung bloquea la inteligencia artificial
La compañía surcoreana Samsung prohibió el uso del popular chatbot de inteligencia artificial (IA) ChatGPT después de descubrir una fuga de datos confidenciales, lo que podría suponer un problema para la seguridad de la empresa. Samsung informó a sus trabajadores esta medida a través de una nota informativa a la que tuvo acceso la agencia Bloomberg.
"El interés en las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente", reconoció Samsung en su carta. Pero, además de sus prestaciones, la multinacional también recordó los riesgos que implica su uso.
"Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa", alertó.
Samsung tomó esta decisión después de que el personal cargase un código confidencial en la plataforma desarrollada por OpenAI. "Un revés", según explicaron fuentes cercanas a la empresa. Sin embargo, "no está claro qué información abarcaba", señalaron.
A la empresa surcoreana le preocupa que los datos sean transmitidos a plataformas de IA. Y no se refiere solo a ChatGPT. También sospecha que el uso de Google Bard y Bing pueden convertirse en un problema para la seguridad.
Los especialistas de la multinacional explicaron que esa información se almacena en servidores externos, lo que dificulta su recuperación y eliminación. De esta forma, podrían terminar siendo divulgados a otros usuarios, según el documento.
Inteligencia artificial: el antecedente de los bancos
Ante el auge de este tipo de tecnología, la compañía realizó una encuesta el mes pasado sobre el uso interno de herramientas de IA. El 65% de los encuestados cree que estos servicios representan un riesgo para la seguridad de la empresa, una opinión compartida también por la empresa.
Samsung no es la única multinacional en expresar su preocupación por estas herramientas. Según recordó Bloomberg, en febrero algunos bancos de Wall Street, incluidos JPMorgan Chase & Co., Bank of America Corp. y Citigroup Inc., prohibieron o restringieron el uso de ChatGPT. Italia también se lo planteó por temor a la privacidad, aunque finalmente desechó la idea.