La tokenización es un proceso mediante el cual los PAN, PHI, PII y otros elementos de datos sensibles se sustituyen por valores sustitutos o tokens. En realidad, la tokenización es una forma de cifrado, pero ambos términos suelen utilizarse de forma diferente. El cifrado suele significar la codificación de datos legibles para el ser humano en un texto incomprensible que sólo se descifra con la clave de descifrado adecuada, mientras que la tokenización (o "enmascaramiento" u "ofuscación") significa alguna forma de protección de datos que preserva el formato: la conversión de valores sensibles en valores sustitutivos no sensibles -tokens- de la misma longitud y formato que los datos originales.
Como forma de cifrado, la tokenización es una estrategia clave de protección de la privacidad de los datos para cualquier empresa. Esta página ofrece una visión muy general de qué es la tokenización y cómo funciona.
TrustCommerce creó la tokenización digital en 2001 para ayudar a un cliente a proteger la información de las tarjetas de crédito de sus clientes. Los comerciantes almacenaban los datos de los titulares de las tarjetas en sus propios servidores, lo que significaba que cualquiera que tuviera acceso a sus servidores podía ver o aprovecharse de los números de las tarjetas de crédito de los clientes.
TrustCommerce desarrolló un sistema que sustituía los números de cuenta principales (PAN) por un número aleatorio llamado token. Esto permitía a los comerciantes almacenar y referenciar tokens al aceptar pagos. TrustCommerce volvía a convertir los tokens en PAN y procesaba los pagos utilizando los PAN originales. Esto aisló el riesgo para TrustCommerce, puesto que los comerciantes ya no tenían ningún PAN real almacenado en sus sistemas.
A medida que aumentaban los problemas de seguridad y los requisitos normativos, la tokenización de primera generación demostró el valor de la tecnología, y otros proveedores ofrecieron soluciones similares. Sin embargo, pronto se hicieron evidentes los problemas de este enfoque.
Existen dos tipos de tokenización: reversible e irreversible.
Los tokens reversibles se pueden destokenizar, es decir, volver a convertirlos en sus valores originales. En terminología de privacidad, esto se denomina seudonimización. Estos tokens pueden subdividirse en criptográficos y no criptográficos, aunque esta distinción es artificial, ya que cualquier tokenización es en realidad una forma de encriptación.
La tokenización criptográfica genera tokens utilizando criptografía fuerte; los elementos de datos en texto claro no se almacenan en ninguna parte, sólo la clave criptográfica. El modo AES FF1 estándar del NIST es un ejemplo de tokenización criptográfica.
La tokenización no criptográfica significaba originalmente que los tokens se creaban generando aleatoriamente un valor y almacenando el texto claro y el token correspondiente en una base de datos, como la oferta original de TrustCommerce. Este enfoque es conceptualmente simple, pero significa que cualquier solicitud de tokenización o detokenización debe hacer una solicitud al servidor, lo que añade sobrecarga, complejidad y riesgo. Además, no es escalable. Considere una solicitud para tokenizar un valor: el servidor debe realizar primero una búsqueda en la base de datos para ver si ya tiene un token para ese valor. Si lo tiene, lo devuelve. Si no es así, debe generar un nuevo valor aleatorio y, a continuación, realizar otra búsqueda en la base de datos para asegurarse de que ese valor no se ha asignado ya a un texto claro diferente. Si es así, debe generar otro valor aleatorio, comprobarlo, y así sucesivamente. A medida que crece el número de tokens creados, aumenta el tiempo necesario para estas búsquedas en la base de datos; peor aún, la probabilidad de que se produzcan colisiones crece exponencialmente. Estas implementaciones también suelen utilizar varios servidores de tokens para equilibrar la carga, garantizar la fiabilidad y evitar fallos. Éstos deben sincronizar la base de datos en tiempo real para garantizar la fiabilidad y la coherencia, lo que añade complejidad y sobrecarga.
La tokenización no criptográfica moderna se centra en enfoques "sin estado" o "sin bóveda", que utilizan metadatos generados aleatoriamente que se combinan de forma segura para crear tokens. Estos sistemas pueden funcionar desconectados unos de otros y ampliarse hasta el infinito, ya que no requieren ninguna sincronización más allá de la copia de los metadatos originales, a diferencia de la tokenización basada en bases de datos.
Los tokens irreversibles no pueden volver a convertirse en sus valores originales. En terminología de privacidad, esto se denomina anonimización. Estos tokens se crean mediante una función unidireccional, lo que permite utilizar elementos de datos anonimizados para análisis de terceros, datos de producción en entornos inferiores, etc.
La tokenización requiere cambios mínimos para añadir una sólida protección de datos a las aplicaciones existentes. Las soluciones de cifrado tradicionales amplían los datos, lo que requiere cambios significativos en el esquema de datos de la base de datos y del programa, así como almacenamiento adicional. También significa que los campos protegidos no superan ninguna comprobación de validación, lo que requiere análisis y actualizaciones adicionales del código. Los tokens utilizan los mismos formatos de datos, no requieren almacenamiento adicional y pueden pasar las comprobaciones de validación.
Como las aplicaciones comparten datos, la tokenización también es mucho más fácil de añadir que la encriptación, ya que los procesos de intercambio de datos no cambian. De hecho, muchos usos intermedios de los datos -entre la ingestión y la disposición final- pueden utilizar normalmente el token sin tener que destokenizarlo nunca. Esto mejora la seguridad, ya que permite proteger los datos lo antes posible en el momento de su adquisición y mantenerlos protegidos durante la mayor parte de su ciclo de vida.
Dentro de los límites de los requisitos de seguridad, los tokens pueden conservar valores parciales en texto claro, como los dígitos iniciales y finales de un número de tarjeta de crédito. Esto permite que las funciones necesarias -como el enrutamiento de la tarjeta y la verificación de los "cuatro últimos" o la impresión en los recibos de los clientes- se realicen utilizando el token, sin tener que convertirlo de nuevo al valor real.
Esta capacidad de utilizar directamente los tokens mejora tanto el rendimiento como la seguridad: el rendimiento, porque no hay sobrecarga cuando no se requiere destokenización; y la seguridad, porque como nunca se recupera el texto en claro, hay menos superficie de ataque disponible.
La tokenización se utiliza para proteger muchos tipos diferentes de datos confidenciales, entre ellos:
A medida que aumentan las filtraciones de datos y la seguridad de los mismos adquiere mayor importancia, las organizaciones encuentran atractiva la tokenización porque es más fácil de añadir a las aplicaciones existentes que el cifrado tradicional.
Cumplimiento de PCI DSS
Salvaguardar los datos de las tarjetas de pago es uno de los casos de uso más comunes para la tokenización, en parte debido a los requisitos de enrutamiento para los diferentes tipos de tarjetas, así como la validación de los "cuatro últimos" números de tarjeta. La tokenización de datos de tarjetas recibió un impulso temprano gracias a los requisitos establecidos por el Consejo de Estándares de Seguridad de la Industria de Tarjetas de Pago (PCI SSC). El Estándar de Seguridad de Datos del Sector de Tarjetas de Pago (PCI DSS) exige a las empresas que manejan datos de tarjetas de pago que garanticen el cumplimiento de estrictos requisitos de ciberseguridad. Aunque la norma PCI DSS permite proteger los datos de las tarjetas de pago mediante cifrado, los comerciantes también pueden utilizar la tokenización para cumplir las normas. Dado que los flujos de datos de pago son complejos, de alto rendimiento y están bien definidos, la tokenización es mucho más fácil de añadir que el cifrado.
La tokenización se está convirtiendo en una forma cada vez más popular de proteger los datos, y puede desempeñar un papel vital en una solución de protección de la privacidad de los datos. OpenText™ Cybersecurity está aquí para ayudar a proteger los datos empresariales confidenciales mediante OpenText™ Voltage™ SecureData, que ofrece una variedad de métodos de tokenización para adaptarse a cada necesidad.
Voltage SecureData y otras soluciones de ciberresiliencia pueden aumentar la inteligencia humana con inteligencia artificial para reforzar la postura de seguridad de los datos de cualquier empresa. Esto no solo proporciona un cifrado inteligente y un proceso de autenticación más inteligente, sino que permite detectar fácilmente amenazas nuevas y desconocidas a través de información contextual sobre amenazas.
Proteja los datos de gran valor y manténgalos utilizables para la TI híbrida
Comprender y proteger los datos para reducir los riesgos, apoyar el cumplimiento de las normativas y regular el acceso a los datos.