Los robots de ventas de IA vienen por su dinero


Reciba actualizaciones gratuitas de inteligencia artificial

Levante la mano si ha mirado un estado de cuenta de tarjeta de crédito recientemente y vio un cargo por una suscripción a la que había olvidado suscribirse.

No estás solo. La cantidad de nuevas suscripciones por consumidor de EE. UU. alcanzó su punto máximo el año pasado y las cancelaciones ahora superan a las nuevas suscripciones. Pero para muchos servicios, salir puede ser mucho más complicado que entrar, como descubrí cuando traté de cancelar mi pago mensual a la membresía de libros grabados Audible de Amazon.

Si cancelaba, advirtió la aplicación, perdería los tres créditos de libros que ya pagué pero que no usé. En cambio, promocionó un botón de «pausa» que pospondría el próximo pago por tres meses. No queriendo prender fuego a ese dinero, obedecí obedientemente y establecí un recordatorio de calendario para cancelar en octubre.

La Autoridad de Conducta Financiera del Reino Unido ha estado preocupada por las técnicas abusivas de venta en línea durante casi una década. Primero advirtió contra obligar a los clientes a desmarcar las casillas o «optar por no participar» para evitar pagar un seguro adicional en 2015 y ha ampliado sus esfuerzos desde allí.

Ahora los reguladores han intensificado su guerra contra lo que llaman «patrones oscuros»: menú tras menú de opciones confusas destinadas a maximizar el gasto y disuadir las cancelaciones. Eso es necesario, ya que las empresas usan minería de datos, algoritmos e inteligencia artificial sofisticada para atraer clientes y mantenerlos dulces.

La Comisión Federal de Comercio de EE. UU. demandó a Amazon la semana pasada, alegando que había «engañado y atrapado a personas en suscripciones recurrentes» a su servicio Prime. Continuó esta semana al hacer que Publishers Clearing House reembolse $ 18,5 millones a los clientes que habían sido atraídos para realizar compras y pagar tarifas mientras participaban en sus sorteos.

“Realmente estamos tratando de enviar un mensaje de que este tipo de prácticas han llamado nuestra atención y no serán toleradas”, me dijo un alto funcionario de la FTC.

En la UE, la presión de Bruselas llevó a Amazon a comenzar a permitir que los clientes finalicen su suscripción Prime con solo dos clics usando un botón de «cancelar» claramente etiquetado. También cambió sus políticas del Reino Unido en ese momento, pero solo modificó las cancelaciones de EE. UU. este año, antes de la demanda de la FTC. La empresa, que tiene previsto pelear el caso, insiste en que sus procedimientos de cancelación son “claros y sencillos. . . por diseño».

Incluso cuando los reguladores toman medidas enérgicas contra los procesos de sitios web de patrones oscuros, las empresas están recurriendo a la inteligencia artificial para hacer que sus métodos de venta sean más sofisticados y potencialmente explotadores.

Las empresas pronto podrán, si no pueden ya, predecir no solo qué ofrecer, sino también a qué hora del día es más probable una compra. La tecnología de detección de emociones en tiempo real podría usarse para presionar ofertas en momentos vulnerables.

Así como el autocompletado predictivo inserta errores en los textos, una IA generativa sofisticada podría buscar y completar previamente la información de compra de manera que beneficie a los vendedores en lugar de ofrecer a los compradores una amplia gama de opciones.

Imagínese decirle a la IA que busque información sobre trapeadores robotizados. Si volviera con la página de registro para una suscripción de un año a un sitio de consumo con los detalles completos, algunas personas simplemente harían clic en sí. Entonces podrían perderse una prueba gratuita.

“Cuanto más versátil se vuelve la IA, más necesitamos regulación. . . para asegurarse de que no nos manipule ni nos explote”, dice Matthias Holweg de la Saïd Business School de Oxford.

Los reguladores deben establecer principios y procedimientos ahora que facilitarán la represión de las prácticas de venta abusivas a medida que surjan. Al menos tres enfoques diferentes tienen mérito.

El nuevo deber del consumidor de la FCA, que entrará en vigencia el próximo mes, advierte específicamente a las empresas que no intenten “explotar los sesgos de comportamiento de los consumidores. . . para crear una demanda”.

El parlamento europeo está trabajando en una nueva legislación para poner límites al uso de tecnologías de inteligencia artificial, como la categorización biométrica, el reconocimiento de emociones y los sistemas generativos. Gran parte del enfoque hasta ahora se ha centrado en el empleo y la aplicación de la ley. Pero los principios se extienden a las ventas.

La FTC exige que las empresas que resuelven casos de engaño mantengan registros de las investigaciones psicológicas y conductuales que realizan, incluidas las pruebas A/B. Eso debería ampliarse. A medida que más empresas utilicen la IA para impulsar las ventas, deberían esperar enfrentar el escrutinio.

Una cosa es tentar a los clientes con ofertas personalizadas. Otra cosa es explotar sus debilidades para que paguen por servicios que no necesitan.

[email protected]

Sigue a Brooke Masters con miFT y en Gorjeo





ttn-es-56