A tokenização é um processo pelo qual PANs, PHI, PII e outros elementos de dados confidenciais são substituídos por valores substitutos, ou tokens. A tokenização é, na verdade, uma forma de criptografia, mas os dois termos são normalmente usados de forma diferente. A criptografia geralmente significa codificar dados legíveis por humanos em um texto incompreensível que só é decodificado com a chave de decodificação correta, enquanto a tokenização (ou "mascaramento" ou "ofuscação") significa alguma forma de proteção de dados com preservação de formato: converter valores confidenciais em valores de substituição não confidenciais - tokens - com o mesmo comprimento e formato dos dados originais.
Como uma forma de criptografia, a tokenização é uma estratégia importante de proteção da privacidade de dados para qualquer empresa. Esta página oferece uma visão de alto nível do que é a tokenização e como ela funciona.
A tokenização digital foi criada pela TrustCommerce em 2001 para ajudar um cliente a proteger as informações dos cartões de crédito dos clientes. Os comerciantes estavam armazenando os dados dos titulares de cartões em seus próprios servidores, o que significava que qualquer pessoa que tivesse acesso a esses servidores poderia visualizar ou tirar proveito dos números de cartões de crédito dos clientes.
A TrustCommerce desenvolveu um sistema que substituiu os números de contas primárias (PANs) por um número aleatório chamado token. Isso permitiu que os comerciantes armazenassem e fizessem referência aos tokens ao aceitar pagamentos. O TrustCommerce converteu os tokens novamente em PANs e processou os pagamentos usando os PANs originais. Isso isolou o risco para a TrustCommerce, já que os comerciantes não tinham mais PANs reais armazenados em seus sistemas.
À medida que as preocupações com a segurança e os requisitos normativos aumentavam, essa tokenização de primeira geração provou o valor da tecnologia, e outros fornecedores ofereceram soluções semelhantes. No entanto, os problemas com essa abordagem logo ficaram claros.
Há dois tipos de tokenização: reversível e irreversível.
Os tokens reversíveis podem ser destokenizados, ou seja, convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de pseudonimização. Esses tokens podem ser subdivididos em criptográficos e não criptográficos, embora essa distinção seja artificial, pois qualquer tokenização é, na verdade, uma forma de criptografia.
A tokenização criptográfica gera tokens usando criptografia forte; o(s) elemento(s) de dados de texto claro não é(são) armazenado(s) em lugar algum - apenas a chave criptográfica. O AES de modo FF1 padrão do NIST é um exemplo de tokenização criptográfica.
Originalmente, a tokenização não criptográfica significava que os tokens eram criados pela geração aleatória de um valor e pelo armazenamento do texto não criptografado e do token correspondente em um banco de dados, como a oferta original da TrustCommerce. Essa abordagem é conceitualmente simples, mas significa que qualquer solicitação de tokenização ou destokenização precisa fazer uma solicitação ao servidor, o que aumenta a sobrecarga, a complexidade e o risco. Ela também não é bem dimensionada. Considere uma solicitação para tokenizar um valor: o servidor deve primeiro fazer uma pesquisa no banco de dados para ver se já tem um token para esse valor. Se tiver, ele o retorna. Caso contrário, ele deve gerar um novo valor aleatório e, em seguida, fazer outra pesquisa no banco de dados para verificar se esse valor ainda não foi atribuído a um cleartext diferente. Se tiver sido, ele deverá gerar outro valor aleatório, verificar esse valor e assim por diante. À medida que o número de tokens criados cresce, o tempo necessário para essas pesquisas no banco de dados aumenta; pior ainda, a probabilidade de tais colisões cresce exponencialmente. Essas implementações também costumam usar vários servidores de tokens para balanceamento de carga, confiabilidade e failover. Eles precisam executar a sincronização do banco de dados em tempo real para garantir a confiabilidade e a consistência, o que aumenta ainda mais a complexidade e a sobrecarga.
A tokenização moderna não criptográfica concentra-se em abordagens "sem estado" ou "sem cofre", usando metadados gerados aleatoriamente que são combinados com segurança para criar tokens. Esses sistemas podem operar desconectados uns dos outros e escalar infinitamente, pois não exigem sincronização além da cópia dos metadados originais, ao contrário da tokenização apoiada em banco de dados.
Os tokens irreversíveis não podem ser convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de anonimização. Esses tokens são criados por meio de uma função unidirecional, permitindo o uso de elementos de dados anônimos para análises de terceiros, dados de produção em ambientes inferiores etc.
A tokenização requer alterações mínimas para adicionar uma forte proteção de dados aos aplicativos existentes. As soluções tradicionais de criptografia ampliam os dados, exigindo alterações significativas no banco de dados e no esquema de dados do programa, além de armazenamento adicional. Isso também significa que os campos protegidos falham em qualquer verificação de validação, exigindo mais análises e atualizações de código. Os tokens usam os mesmos formatos de dados, não exigem armazenamento adicional e podem passar por verificações de validação.
Como os aplicativos compartilham dados, a tokenização também é muito mais fácil de adicionar do que a criptografia, pois os processos de troca de dados não são alterados. De fato, muitos usos intermediários de dados - entre a ingestão e a disposição final - normalmente podem usar o token sem precisar destokenizá-lo. Isso aumenta a segurança, permitindo a proteção dos dados o mais rápido possível na aquisição e mantendo-os protegidos durante a maior parte de seu ciclo de vida.
Dentro dos limites dos requisitos de segurança, os tokens podem reter valores de texto claro parciais, como os dígitos iniciais e finais de um número de cartão de crédito. Isso permite que as funções necessárias - como roteamento de cartão e verificação dos "quatro últimos" ou impressão em recibos de clientes - sejam executadas usando o token, sem a necessidade de convertê-lo novamente no valor real.
Essa capacidade de usar tokens diretamente melhora o desempenho e a segurança: o desempenho, porque não há sobrecarga quando não é necessária a destokenização; e a segurança, porque, como o texto não é recuperado, há menos superfície de ataque disponível.
A tokenização é usada para proteger muitos tipos diferentes de dados confidenciais, incluindo:
À medida que as violações de dados aumentam e a segurança dos dados se torna cada vez mais importante, as organizações consideram a tokenização atraente porque é mais fácil de adicionar aos aplicativos existentes do que a criptografia tradicional.
Conformidade com o PCI DSS
A proteção de dados de cartões de pagamento é um dos casos de uso mais comuns para a tokenização, em parte devido aos requisitos de roteamento para diferentes tipos de cartões, bem como à validação dos "últimos quatro" números de cartões. A tokenização de dados de cartões recebeu um impulso inicial devido aos requisitos definidos pelo PCI SSC (Payment Card Industry Security Standards Council, Conselho de Padrões de Segurança do Setor de Cartões de Pagamento). O Padrão de Segurança de Dados do Setor de Cartões de Pagamento (PCI DSS) exige que as empresas que lidam com dados de cartões de pagamento garantam a conformidade com requisitos rigorosos de segurança cibernética. Embora a proteção dos dados de cartões de pagamento com criptografia seja permitida pelo PCI DSS, os comerciantes também podem usar a tokenização para atender aos padrões de conformidade. Como os fluxos de dados de pagamentos são complexos, de alto desempenho e bem definidos, a tokenização é muito mais fácil de adicionar do que a criptografia.
A tokenização está se tornando uma forma cada vez mais popular de proteger dados e pode desempenhar um papel vital em uma solução de proteção de privacidade de dados. OpenText™ A segurança cibernética está aqui para ajudar a proteger dados comerciais confidenciais usando o OpenText™ Voltage™ SecureData, que oferece uma variedade de métodos de tokenização para atender a todas as necessidades.
Voltage O SecureData e outras soluções de resiliência cibernética podem aumentar a inteligência humana com inteligência artificial para fortalecer a postura de segurança de dados de qualquer empresa. Isso não apenas fornece criptografia inteligente e um processo de autenticação mais inteligente, mas também permite a fácil detecção de ameaças novas e desconhecidas por meio de insights contextuais sobre ameaças.
Proteja dados de alto valor e mantenha-os utilizáveis para a TI híbrida
Entenda e proteja os dados para reduzir os riscos, apoiar a conformidade e controlar o acesso aos dados