ChatGPT lanzará contenido erótico y nuevas personalidades para adultos – MacMagazine

Bastante restrictivo en cuanto a contenidos con connotaciones sexuales desde su lanzamiento, el ChatGPT dará más libertad para este tipo de contenidos en el futuro, siguiendo un camino similar a plataformas como Grok (de xAI), que incluso tiene un avatar que desbloquea conversaciones “prohibidas”.
Según una publicación del CEO de OpenAI, Sam Altmanla plataforma relajará las restricciones después de descubrir cómo mitigar algunos problemas de salud mental que podrían desencadenarse con este tipo de conversaciones y obtendrá, en unas pocas semanas, una versión actualizada que podrá ofrecer diferentes personalidades.
Si desea que su ChatGPT responda de manera muy humana, use muchos emojis o actúe como un amigo, ChatGPT debería hacerlo (pero solo si así lo desea, no porque estemos maximizando el uso).
La gran noticia será que ChatGPT podrá “tratar a los usuarios adultos como adultos” (lo que requerirá verificación de edad), comenzando a permitir contenido aún más erótico en sus conversaciones, algo que debería lanzarse en diciembre, en medio de la implementación de estas nuevas personalidades.
Ahora que podemos mitigar problemas graves de salud mental y contar con nuevas herramientas, podremos relajar las restricciones de forma segura en la mayoría de los casos.
En unas pocas semanas, planeamos lanzar una nueva versión de ChatGPT que permitirá a las personas tener una personalidad que se comporte más como la que le gusta a la gente en [ChatGPT] 4º (¡ojalá mejor!). Si desea que su ChatGPT responda de una manera muy humana, use muchos emojis o actúe como un amigo, ChatGPT debería hacerlo (pero solo si así lo desea, no porque estemos maximizando el uso).
En diciembre, a medida que implementemos restricciones de edad de manera más completa y como parte de nuestro principio de “tratar a los usuarios adultos como adultos”, permitiremos aún más, como contenido erótico para adultos verificados.
El anuncio de OpenAI ha recibido algunas reacciones negativas, alegando que los chatbots de IA sexualizados son riesgosos y pueden suponer un daño real para la salud mental de los usuarios. Algunas entidades incluso pidieron a la empresa que reconsiderara esta decisión.
En otra publicación, Altman respondió a las críticas afirmando que OpenAI no relajará las políticas relacionadas con la salud mental y, al mencionar el tema sexual, destacó que la empresa “no es la policía moral elegida en el mundo”:
Como dijimos anteriormente, estamos tomando la decisión de priorizar la seguridad sobre la privacidad y la libertad de los adolescentes. Y no vamos a relajar ninguna política relacionada con la salud mental. Se trata de una nueva tecnología poderosa y creemos que los menores necesitan una protección significativa.
También nos preocupamos profundamente por el principio de tratar a los usuarios adultos como adultos. A medida que la IA se vuelve más importante en la vida de las personas, permitirles mucha libertad para usar la IA de la manera que quieran es una parte importante de nuestra misión.
Por supuesto, no se aplica en todos los ámbitos: por ejemplo, todavía no permitiremos cosas que causen daño a otros y trataremos a los usuarios que están experimentando crisis de salud mental de manera muy diferente a los usuarios que no las están experimentando. Sin ser condescendientes, intentaremos ayudar a los usuarios a alcanzar sus objetivos a largo plazo.
Pero no somos la policía moral elegida por el mundo. Así como la sociedad diferencia otros límites apropiados (películas con clasificación R, por ejemplo), queremos hacer algo similar aquí.
Hablando de impactos en la salud mental…
OpenAI anunció la creación de Consejo de expertos en bienestar e inteligencia artificialuna junta formada por expertos con experiencia en psicología, psiquiatría, interacción persona-computadora y salud mental para asesorar a OpenAI sobre cómo la IA puede interactuar de manera más saludable con las personas.
Paralelamente a este asesoramiento, la empresa también está trabajando con un subconjunto multidisciplinario de médicos e investigadores del Red mundial de médicosque ayudará a la empresa a dar forma a su comportamiento y políticas para probar cómo responde ChatGPT en situaciones del mundo real.
