El cliente siempre tiene razón, también en la gestión de sus datos

La gestión de los datos por los bancos ya no depende sólo de la regulación sino que está cada vez más determinada por las necesidades de los usuarios del sistema bancario. En este sentido, el tema se ha movido desde «el mundo de la regulación hacia el mundo del cliente». Este fue uno de los mensajes que, durante el IX Encuentro Nacional de Gestión de Riesgos organizado por la Asociación para el Progreso de la Dirección (APD), ofrecieron hoy miércoles en Madrid el Global Senior Data Manager del Grupo Santander, Raúl Cruces Rufo, y la CDO (Chief Data Officer) del Grupo, Eva Montoro Candela. 

La ponencia titulada “La importancia del gobierno y la calidad de datos en la gestión de riesgos”, presentó algunas de las líneas maestras que rigen la gestión de datos que realiza el Grupo Santander, y su visión de como reducir los riesgos que supone el manejo de datos o, en el lenguaje del sector: la gestión del «riesgo del dato».

 

EVOLUCIÓN DE LA GESTIÓN DEL DATO: DEL CONTACTO PERSONAL A LOS CANALES DIGITALES

Históricamente, los bancos gestionaban los datos en las sucursales por lo que el contacto con el cliente era muy personal. En aquél entonces, la ventaja para un banco radicaba en tener los mejores gestores personales, capaces de conocer bien al cliente y ganarse su confianza. Hoy en día los datos entran cada vez más a través de la web, el móvil y otros canales digitales, por lo que cada vez menos «existe este contacto personal».

De hecho, Eva Montoro apunta que hoy en día la mejor manera de conocer al cliente es a través de estos nuevos canales y «quienes lideren serán aquellos que gestionen mejor la información sobre sus clientes (como son y como se comportan)». Pero el canal digital debe también satisfacer al cliente; sobre todo debe «facilitar y agilizar el proceso a fin de ahorrarles tiempo».

La gestión del dato es clave para «construir una relación de confianza entre el banco y sus clientes, empleados, accionistas y la comunidad en general» explica Raúl Cruces. Esta confianza debe ganarse con transparencia. Debe comunicarse «que se hará con los datos» y «ser íntegros», usando realmente los datos para lo que se dijo.

Otro factor que puede aumentar la confianza es una apropiada aplicación del nuevo Reglamento de Protección General de Datos (RGPD), de tal manera que el cliente se sienta protegido por su entidad.

Montoro afirma por otro lado que la filosofía del ‘open data’ (datos abiertos), la iniciativa que plantea que ciertos datos -hoy privados- sean del conocimiento público, genera un problema a los bancos. Según Montoro, «el gobierno y la gestión del dato es la pieza para balancear»  la vertiente protectora -representada en la RGPD- con la vertiente del ‘open data’.

 

¿QUIEN DEBE LIDERAR EL NUEVO PARADIGMA DE GESTIÓN DEL DATO?

Cruces enfatizó que quien debe liderar la transformación en la gestión del dato deben ser las áreas del negocio (bancario) y no el CEO ni los directivos de las áreas tecnológicas. «Esto no estaba tan claro hace 4 años», afirma el Data Manager de Santander. En primer lugar las áreas de negocio (crédito y el resto de los servicios bancarios) deben «definir sus requisitos de datos en una semántica común  y en unas taxonomías (clasificaciones) adecuadas». Sólo después el Director de Datos (CDO) debe diseñar una «arquitectura del dato» y decidir como será el flujo y el almacenamiento de la información.

Un factor que todas las áreas de la organización deben comprender es que «el propietario del dato es el banco», y no un departamento específico. Sin embargo, Montoro destaca que para cambiar el modelo de gestión del dato es necesario «buscar el consenso y no imponer» desde un área del banco al resto.

 

CANTIDAD DE DATOS VS. CALIDAD DE GESTIÓN

Finalmente, ambos ponentes destacaron que la abundancia de datos no garantiza una buena gestión de los mismos. Para Eva Montoro más importante que tener muchos datos es «que optimicemos y enriquezcamos el tratamiento que hacemos de los datos en las compañías». También apuntaron que disponer de una gran cantidad de datos de dudosa fiabilidad es un error, y podría incluso ser contraproducente.