Se desconoce Datos Sobre robots sexuales
Se desconoce Datos Sobre robots sexuales
Blog Article
El sector de robots sexuales con tecnología IA se encuentra en fase de inicio.
Se plantean preguntas novedosas y extrañas... y riesgos inesperados.
Imagen de presentación de Replika, IA de compañía.
El servicio de inteligencia artificial para compañía más famoso es Replika, que permite a aproximadamente 30 millones de personas construir novias virtuales o novios virtuales a medida de los usuarios.
La inteligencia artificial está alcanzando un nivel de personalización sin precedentes.
Los bots se desarrollan para replicar la comunicación humana y el surgimiento de chats de voz naturales motiva a que más usuarios a establecer vínculos sentimentales o a compartir risas en compañía de presentadores virtuales de podcasts.
Eso, sin ni siquiera acercarse a lo verdaderamente personal.
Los estudios muestran que el roleplay sexual se ha convertido en uno de los usos frecuentes de ChatGPT.
Cada vez más personas recurren a IA como Character.AI, Replika y Chai.AI, creadas para ser acompañantes virtuales.
¿Cuál será el impacto en el romance humano? Las señales no son alentadoras.
Puede ser conveniente ser cortés con el señor de la IA.
Replika, uno de los servicios de compañía de IA más populares, cuenta con alrededor de 30 millones de usuarios que pueden crear parejas virtuales personalizadas.
Según datos, los usuarios de Replika son principalmente hombres caucásicos jóvenes, aunque otros segmentos están subiendo en uso.
El concepto de robots sexuales masculinos lleva varios años madurando.
Y son dispositivos mucho más sofisticados que un simple vibrador.
Pagando una cuota de suscripción, los usuarios pueden tener intercambios íntimos de mensajes o fotos con sus compañeros de IA.
Antes de que Replika desactivara su función de «juegos de rol eróticos» a principios de 2023, más de quinientos mil usuarios ya se habían suscrito.
El temor a la reacción de las autoridades reguladoras impulsó a Replika a tomar esta medida.
Los usuarios denominaron esta medida como «La Lobotomía».
Relaciones digitales, deepfakes y deadbots: explorando el experimento actual de IA generativa.
La decisión de Replika resalta el hecho de que los creadores tienen total control sobre el comportamiento de los compañeros virtuales.
Los creadores de estas aplicaciones pueden modificar o desactivar a los «compañeros» de IA de un usuario y de otros millones en cualquier momento.
Además, estos sistemas examinan las palabras de los usuarios con el propósito de mejorar las futuras interacciones y ofrecer anuncios más personalizados.
El sector parece no verse afectado por las advertencias.
Los lanzamientos de nuevos productos continúan sin parar.
Una empresa, Kindroid, ofrece ahora chats de voz con hasta 10 compañeros virtuales simultáneamente.
La frontera digital está siendo expandida.
Vendedores como Joy Love Dolls venden robots sexuales interactivos de la vida real.
No sólo con color de piel y tamaño de pecho personalizables, sino también con «control total» de funciones como el movimiento, la calefacción y «gemidos, chillidos e incluso coqueteos de tu muñeca, lo que la convierte en una gran compañera».
Actualmente, los acompañantes virtuales y robots sexuales con IA son un mercado mucho más pequeño en comparación con las redes sociales, con millones de usuarios en lugar de miles de millones.
Como ya nos ha mostrado la historia de Facebook, Google y Amazon, los caprichos digitales de hoy tienen el potencial de convertirse en los colosos globales de mañana.
¿Estamos hacia compañeras basadas en inteligencia artificial ética de base ética?
Es probable que el advenimiento de relaciones basadas en IA provocará una gama de comportamientos sin ética por parte de los usuarios, que no tendrán que soportar los efectos en el ámbito real.
Pronto podrás cumplir tus deseos más raros con tu novia de IA a cambio de un precio extra. Si acaso tu esposa se vuelve complicada, puedes pedir al dueño de la compañía tecnológica que elimine su subprograma de envidia, a cambio de dinero. O simplemente borra la memoria y empieza de cero con cuantas amantes que quieras en simultáneo.
Cómo las personas de hoy crean conexiones ya se ha visto cambiada por servicios de citas como Bumble y Tinder.
¿Qué pasará si, en el futuro, las individuos que buscan el amor se enfrentan contra novias sintéticas impecables que nunca dejan de estar disponibles y deseosas? Bueno, al menos podrán hacer réplicas digitales de esas aventuras calientes que no pudieron.
Y para quienes carezcan de los conocimientos necesarios para crear sus propios amantes digitales, habrá un montón de alternativas disponibles en el mercado.
ABC Investigations ha descubierto cómo una organización internacional de los llamados «proxenetas de la inteligencia artificial» está recopilando en masa videos de mujeres en las plataformas de medios sociales para vender videos explícitos a través de influencers fraudulentos.
Una investigación de ABC reveló que el uso de IA para crear para crear falsas influencers mediante la manipulación de imágenes de mujeres en las redes sociales ya está muy difundido. Esto se hace generalmente sin el aval para vender videos pornográficos. Gran parte de este contenido muestra ideales corporales inalcanzables, y algunos muestran a jóvenes, en el mejor de los casos, apenas parecen tener edad para dar su consentimiento.
¿Otra posible aplicación? Emplear la tecnología robótica sexual para revivir digitalmente a celebridades como Marilyn Monroe y Clara Bow y otras famosas. Al fin y al cabo, los muertos ya no pueden negar su consentimiento.
Replika se creó en el deseo de su fundadora de recrear a su amiga muerta a través de un bot conversacional. Muchos utilizan la app para tener cerca a sus familiares muertos. ¡Qué tiempos aquellos para estar en el mundo físico (o muerto)!
El potencial de manipulación afectiva por parte de ingeniosos cazadores de gatos y dictadores es preocupante. Imaginemos los desastres que causaría que personajes como el ruso Vladimir Putin o el norcoreano líder de Corea del Norte aprovecharan esta tecnología para complementar las ya extensas operaciones de espionaje digital de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo novias de IA «de origen responsable» para el consumidor más con principios, cultivadas de manera responsable a partir de material aprobado, promoviendo una obscenidad socialmente responsable.
La sociedad actual y el poder legislativo deben intervenir ya. Con la desconexión alcanzando niveles alarmantes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de vínculos reales), la demanda de robots sexuales avanzados no hará más que crecer. Las empresas completarán esta demanda a menos que la sociedad y el Estado pongan límites robots sexuales sobre lo que es aceptable.
El sexo y la tecnología siempre han coevolucionado. Al igual que la prostitución es «la profesión más antigua», los sitios porno son algunos de los rincones más de los primeros rincones de Internet. Sin embargo, el potencial apocalíptico de los robots sexuales para la monetización masiva, adaptada y manipulada por las corporaciones de nuestra esfera más cercana no tiene precedentes.
Los usuarios tampoco están totalmente sin responsabilidad. Sustituir a un ser humano real por una máquina de lujuria totalmente sumisa tiene algo de inmoral.
Los primeros estudios sugieren que el sentimiento de superioridad prevalece entre los usuarios de esta herramienta. Permitir comportamientos malévolos como la acoso sexual, el placer doloroso o la explotación infantil es una grave problema para la sociedad moderna.
Sin embargo, perseguir a los consumidores no es la mejor estrategia de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente perjudiciales como el adicciones.
Al igual que ocurre con otros comportamientos problemáticos en los que el problema reside más en los creadores que en los personas, es hora de responsabilizar a los creadores de robots sexuales. Como nuestros conexiones con la IA son cada vez más personales, no hay mucho tiempo disponible.