¿Quién sabe sobre gestión de datos?

¿Gestión de datos? Tabla de contenido

1 Definición

2 Fase de administración

1 La fase 2 de administración manual, la fase 3 del sistema de archivos y la fase 3 del sistema de base de datos están orientadas a las aplicaciones. .

Conceptos de gestión de datos para aplicaciones de datos Objetos de gestión de datos para aplicaciones de datos 4 Anti-Lavado de Dinero

5AML

¿Qué campos se utilizan para comparar en un informe anti-dinero? plan de lavado? 1Definición

La gestión de datos [1] es el proceso de recopilar, almacenar, procesar y aplicar datos de manera efectiva utilizando tecnología de hardware y software. El objetivo es aprovechar al máximo sus datos. La clave para una gestión de datos eficaz es la organización de los datos. Con el desarrollo de la tecnología informática, la gestión de datos ha pasado por tres etapas: gestión manual, sistema de archivos y sistema de base de datos. La estructura de datos establecida en el sistema de base de datos describe de manera más completa la relación intrínseca entre los datos, facilita la modificación, actualización y expansión de los datos, al tiempo que garantiza la independencia, confiabilidad, seguridad e integridad de los datos y reduce la redundancia de los datos, mejorando así el disfrute de los datos. eficiencia en la gestión de datos. 2 Etapa de gestión 1. Etapa de gestión manual Antes de mediados de la década de 1950, las computadoras se utilizaban principalmente para cálculos científicos. Las principales características de la gestión de datos en esta etapa son: (1) Los datos no se guardan. Debido a que las computadoras se usaban principalmente para cálculos científicos en ese momento, generalmente no era necesario guardar datos durante mucho tiempo, solo era necesario ingresarlos al calcular una determinada pregunta y luego recuperarlos después de su uso. Esto no sólo se aplica a los datos del usuario, sino también, a veces, al software del sistema. (2) Datos de gestión de aplicaciones. Los datos deben ser diseñados, interpretados y gestionados por la propia aplicación, y no existe un sistema de software correspondiente para gestionar los datos. ③ Los datos no son * * *. Los datos están orientados a la aplicación y un conjunto de datos solo puede corresponder a un programa, por lo que existe mucha redundancia entre programas. (4) Los datos no son independientes. Después de que cambia la estructura lógica o la estructura física de los datos, el programa de aplicación debe modificarse en consecuencia, lo que aumenta la carga para el programador. En segundo lugar, la etapa del sistema de archivos abarca desde finales de los años cincuenta hasta mediados de los sesenta. En ese momento, el hardware ya contaba con dispositivos de almacenamiento de acceso directo como discos y tambores. En términos de software, existe un software especial de administración de datos en el sistema operativo, generalmente llamado sistema de archivos, este método de procesamiento no solo puede procesar por lotes, sino también en línea y en tiempo real; El uso de un sistema de archivos para administrar datos tiene las siguientes características: (1) Los datos se pueden guardar durante mucho tiempo. Dado que se utiliza una gran cantidad de datos para el procesamiento de datos, los datos deben mantenerse en la memoria externa durante un tiempo prolongado para facilitar consultas, modificaciones, inserciones y eliminaciones repetidas. (2) Los datos son gestionados por el sistema de archivos. Al mismo tiempo, el sistema de archivos también tiene algunas deficiencias, las principales son el escaso disfrute de los datos y la alta redundancia. En el sistema de archivos, un archivo corresponde básicamente a una aplicación, es decir, el archivo todavía está orientado a la aplicación. Cuando diferentes aplicaciones tienen algunos de los mismos datos, también deben crear sus propios archivos, pero no pueden * * * compartir los mismos datos. Esto provocará una gran redundancia de datos y un desperdicio de espacio de almacenamiento. Al mismo tiempo, debido al almacenamiento repetido y la gestión separada de los mismos datos, es fácil provocar inconsistencia en los datos, lo que dificulta su modificación y mantenimiento. En tercer lugar, desde finales de la década de 1960, el tamaño de los objetos gestionados por las computadoras se ha vuelto cada vez mayor, el alcance de las aplicaciones se ha vuelto cada vez más amplio y la cantidad de datos ha aumentado dramáticamente. Al mismo tiempo, la necesidad de múltiples aplicaciones y lenguajes para compartir conjuntos de datos es cada vez mayor y ha surgido la tecnología de bases de datos. Usar un sistema de base de datos para administrar datos tiene ventajas obvias sobre un sistema de archivos. Del sistema de archivos al sistema de base de datos, marca un salto en la tecnología de gestión de bases de datos. 3 está orientado a aplicaciones. La gestión de datos mencionada anteriormente ha pasado por tres etapas: gestión manual, gestión de archivos y gestión de bases de datos. Es principalmente el proceso de recopilar, almacenar, procesar y aplicar datos de manera efectiva utilizando tecnología de hardware y software. Con el avance de la tecnología de la información, los sistemas de información de gestión brindarán soporte comercial para grandes organizaciones, cubriendo no solo los diversos negocios de toda la organización, sino también toda la organización (global o nacional). Por tanto, la gestión de datos como función central de los sistemas de información de gestión entrará en una nueva etapa, es decir, la gestión de datos orientada a aplicaciones de datos. El concepto de gestión de datos es la gestión de datos de aplicaciones de datos, es decir, la gestión de recursos de datos. Según la definición de en: DAMA: "La gestión de recursos de datos se esfuerza por desarrollar estructuras, políticas, prácticas y procedimientos apropiados para manejar el ciclo de vida de los datos empresariales".

Esta es una definición amplia y de alto nivel que no necesariamente involucra directamente las operaciones específicas de gestión de datos (de Wikipedia). En comparación con la definición de Enciclopedia Baidu, la Enciclopedia Baidu está dirigida a la gestión de datos en el proceso de aplicación de datos, es decir, la gestión de datos tradicional, mientras que Wikipedia está dirigida a la gestión de datos del proceso de aplicación involucrados en todo el ciclo de vida de los datos empresariales, es decir. Es decir, la gestión de cambios de datos, o la gestión de datos (metadatos) que describen datos, es lo que aquí llamamos gestión de datos orientada a aplicaciones. Según la teoría de la gestión, un equipo de varias personas puede confiar en la conciencia y la autodisciplina, decenas de personas deben ser gestionadas por alguien, cientos de personas deben ser gestionadas por un equipo, miles o decenas de miles de personas deben ser gestionadas. por un equipo asistido por ordenador. Por lo general, las empresas e instituciones que cubren todo el país se dividen en instituciones de sede, instituciones provinciales, instituciones municipales e instituciones de base. También hay departamentos funcionales y de gestión que participan directamente en el negocio correspondiente y departamentos funcionales y de gestión que participan indirectamente en el negocio (como personal, oficina, logística, auditoría, etc.) en cada nivel de la organización; está compuesta por varios empleados, como objeto de gestión. Al mismo tiempo, se han formulado una serie de sistemas para estandarizar y restringir las actividades y comportamientos de instituciones, departamentos, personal y otros objetos de gestión. De manera similar, en la gestión de datos, a medida que aumenta el número de objetos de gestión (datos), el modelo de gestión (etapa) también mejorará. Por lo general, todo el proyecto de un sistema de información de gestión a gran escala se divide en integración general, subproyectos, subproyectos, y cada subproyecto tiene varios equipos de proyecto internos, etc. Cada nivel de gestión involucra funciones comerciales que sirven directamente al negocio (como transacciones comerciales, procesamiento contable, gestión administrativa, visualización de resultados, etc.) y funciones no comerciales que no sirven directamente al negocio (como definición, configuración, monitoreo, análisis, grabación, programación, etc.); cada función empresarial y no empresarial se compone de varios conjuntos de datos como objetos (como procesos, formularios, elementos de datos, algoritmos, metadatos, registros, etc.). una serie de sistemas, reglas y estándares gobiernan las actividades y cambios de los objetos de gestión, como proyectos, funciones y datos. Se puede ver que la gestión de datos tradicional se centra en objetos de datos como procesos, formularios, elementos de datos y algoritmos que están directamente orientados a necesidades comerciales específicas. Los objetos de datos involucrados en la gestión de datos orientada a aplicaciones también incluyen datos que describen objetos de aplicaciones, como; como procesos, formularios, elementos de datos y algoritmos (es decir, sus metadatos correspondientes), archivos que registran los resultados de diversos cambios de datos, registros que registran el estado de ejecución y otros datos indirectos orientados al negocio para lograr los requisitos comerciales de carga, cambio y registro. y reutilizar diversas aplicaciones de gestión de procesos. Vea el diagrama de espacio de datos a continuación.

Objetos de gestión de datos para aplicaciones de datos. Los objetos de datos gestionados por la gestión de datos para aplicaciones de datos son principalmente metadatos que describen las propiedades de los componentes del sistema de aplicación, incluidos procesos, archivos, archivos, elementos de datos (elementos), códigos, algoritmos (reglas, scripts), modelos, indicadores y físicos. tablas, proceso ETL, registros de estado de ejecución, etc. Los metadatos en el sentido habitual son datos sobre datos.

Datos), describe principalmente información sobre atributos de datos. Esta información incluye atributos de identificación de los datos, como nombre, identificador, nombre sinónimo, contexto, etc. Propiedades técnicas como tipo de datos, formato de datos, umbrales, unidades de medida, etc. Atributos de gestión, como versión, agencia de registro, agencia de envío, estado, etc. Atributos relacionales, como clasificaciones, relaciones, restricciones, reglas, estándares, especificaciones, procesos, etc. Los metadatos involucrados en la gestión de datos de aplicaciones de datos describen principalmente las propiedades de esos componentes del sistema de aplicaciones. Además de los atributos de metadatos tradicionales, cada componente diferente tiene sus propios atributos únicos, como atributos de participantes y enlaces en el proceso, atributos de implementación en tablas físicas, atributos de activo y objetivo en ETL, y atributos de algoritmos y factores en indicadores. . propiedad. Cada componente debe corresponder a uno o más metamodelos (diferentes clasificaciones de componentes). El metamodelo es el estándar para los metadatos, y cada metadato debe seguir la definición de su metamodelo correspondiente. Por ejemplo, cada elemento de datos (meta) tiene su propio nombre, identificador, tipo de datos, formato de datos, estado de publicación, autoridad de registro y otros atributos. La colección de estos atributos son los metadatos de este elemento de datos. Los metadatos de cada elemento de datos se denominan metamodelo porque describen qué atributos se describen, cómo se debe describir cada atributo y las restricciones de las reglas de descripción.

El metaestándar de datos de gobierno electrónico (GB/T 19488.1-2004) es el metamodelo de elementos de datos de gobierno electrónico. La gestión de metadatos tradicional generalmente carga metadatos a través de la función de extracción de un sistema de gestión de metadatos especializado después de que se implementa el negocio relevante. Dado que este método requiere el inicio manual del proceso de carga o mantenimiento (registrar los atributos comerciales posteriormente), a menudo es difícil obtener cambios en los metadatos de manera oportuna y es difícil garantizar la coherencia de los metadatos con la situación real. Al implementar la gestión de datos orientada a aplicaciones, se debe adoptar un modelo de gestión de metadatos activo, es decir, seguir los estándares del metamodelo, cargar metadatos (metadatos locales) a través de la interacción persona-computadora y generar objetos de datos (componentes del sistema de aplicación) en el al mismo tiempo cuando sea posible. ) configuración o script ejecutable (si no se cumplen las condiciones, los metadatos generados por la interacción persona-computadora también deben usarse como base para otras herramientas relacionadas para generar scripts ejecutables). Siempre que es necesario cambiar la configuración o modificar el script, también se logra a través de este proceso de interacción persona-computadora, y se generan nuevos metadatos de forma sincrónica para garantizar la coherencia entre los metadatos y la realidad. Modo de gestión de metadatos activo

El significado y el método de gestión de datos para aplicaciones de datos se muestran en la siguiente figura. Los sistemas de aplicaciones tradicionales suelen estar dirigidos a aplicaciones específicas y requieren requisitos solidificados, lo que dificulta el soporte de sistemas de información de gestión en constante cambio. La tercera fase del Proyecto Golden Tax es establecer un sistema de información de gestión para organizaciones nacionales, que cubra todas las empresas de gestión y todos los usuarios de toda la organización. En un sistema de aplicación de este tipo, los "cambios" en los requisitos comerciales son normales y la "invariabilidad" es de corta duración para toda la organización, las "diferencias" comerciales en varios departamentos y niveles existen objetivamente y la "unificación" se logra gradualmente; luego continúa Expandir (comenzar una nueva diferencia). Por lo tanto, debe haber un nuevo conjunto de productos de sistema de aplicaciones de nivel empresarial (AS2.0) que no solo pueda satisfacer las necesidades comerciales, sino también respaldar los cambios en las necesidades comerciales, rastrear y administrar sus cambios y respaldar la optimización continua de experiencia de usuario. AS2.0 debe controlar, registrar y gestionar el proceso de cambio y los resultados de los requisitos comerciales de toda la organización. La gestión de datos para aplicaciones de datos es el producto de los componentes básicos clave de AS2.0 y es la base de su viabilidad. La gestión de datos de los sistemas de aplicaciones tradicionales se centra en el proceso de valor agregado de los datos. Su función es centrarse y enfatizar la carga de requisitos comerciales, ETL de contenido, organización, procesamiento y reflexión de contenido. Todas estas funciones se implementan mediante codificación y solidificación de códigos de software. La gestión de datos de AS2.0 se centra en agregar recopilación de metadatos, recopilación de datos históricos y recopilación de datos de estado, y en el uso de herramientas activas de gestión de metadatos para configurar y cargar código de software. Al mismo tiempo, los metadatos locales correspondientes se recopilan para formar un conjunto de metadatos para cargar, capturar y registrar cambios en diversos requisitos comerciales para lograr el seguimiento y la gestión de cambios. Los registros históricos relacionados con el contenido y los cambios se estandarizan y empaquetan en archivos para realizar registros históricos; funciones de organización, reutilización y descarga de datos para gestionar la captura, el registro, el análisis integral y la reflexión oportuna de la información del estado operativo de cada componente AS2.0 en tiempo real para lograr una gestión integral de todo el estado operativo del sistema. En resumen, con la expansión de los objetos de datos para registrar cambios, historial y estado, marca que la gestión de datos ha entrado en una nueva etapa: la gestión de datos para aplicaciones de datos, y también marca que los sistemas de aplicaciones han comenzado a ingresar al AS2. 0 época. 4 La gestión de datos contra el blanqueo de dinero es el núcleo de la lucha contra el blanqueo de dinero. Los proveedores de servicios financieros necesitan conocer a sus clientes mejor que nunca. El lavado de dinero es una preocupación importante para muchos gobiernos en sus esfuerzos por combatir el crimen y el terrorismo. Con este fin, han emitido una serie de orientaciones para las instituciones de servicios financieros que operan dentro de su jurisdicción. La gestión de datos está en el centro de la lucha contra el blanqueo de dinero (AML)

. Por ejemplo, la Tercera Directiva contra el blanqueo de capitales de la UE y la Ley Patriota de EE. UU. ponen gran énfasis en la calidad de los datos en las siguientes áreas que requieren atención y una gestión estricta: identificación del cliente, conozca a su cliente (KYC), cliente (o mejorado) debido diligencia Informatica soluciones de calidad de datos, Informatica en investigaciones y lucha contra el blanqueo de capitales.

ampregData Quality TM incluye un banco de trabajo de escritorio para análisis de datos comerciales y de cumplimiento. Su interfaz fácil de usar permite a los usuarios que necesitan una comprensión integral de sus datos y procesos comerciales crear sus propias reglas de calidad de datos para identificar comportamientos potencialmente sospechosos o fraudulentos.

Esta facilidad de uso es una ventaja clave para las empresas. En resumen, no hay necesidad de esperar a que una autoridad independiente desarrolle e implemente las reglas, aumentando así el riesgo de filtraciones debido a retrasos en la implementación. Hoy en día, las empresas no sólo pueden crear, implementar y gestionar reglas de forma centralizada, sino también responder rápidamente a las condiciones comerciales cambiantes. Información y datos

Las soluciones de calidad se utilizan para hacer referencias cruzadas de múltiples conjuntos de datos. Esta referencia cruzada permite a las empresas identificar y verificar datos de clientes y transacciones con las siguientes listas: listas de vigilancia (internas, gubernamentales y de terceros), listas de mortalidad, listas de políticos (PEP), listas de supresión, datos de direcciones y datos de referencia. . Finalmente, una vez establecidas las reglas se puede acceder a las mismas a través del mismo.

Organiza su implementación y optimización, y configúralos para que se ejecuten periódicamente. Esta verificación automatizada garantiza una gestión continua de los datos mediante trabajos por lotes regulares y programados, ideal para la debida diligencia del cliente (CDD) y la generación de informes ad hoc de actividades sospechosas. Las reglas de planificación de la información del cliente para las empresas contra el lavado de dinero (AML) deben comprender a los clientes en detalle. Los departamentos de ventas, marketing y finanzas deben tener datos de clientes precisos y actualizados para funcionar de forma eficaz. En el pasado, varias leyes y regulaciones relacionadas con la protección de datos exigían una mejor calidad de los datos de los clientes, como la Ley de Secreto Bancario (EE. UU.) y la HIPAA. Sin embargo, los legisladores y reguladores adoptaron medidas de cumplimiento adicionales que responden a una serie de infracciones recientes, incluida la. Ley Sarbanes-Oxley, Tercera Directiva Anti-Lavado de Dinero de la UE, Ley Patriota de EE.UU., MiFID y Solvencia.

2. Muchas de estas métricas muestran las necesidades de integración de una empresa en las siguientes áreas: gobierno de datos, integración de datos, almacenamiento de datos, inteligencia empresarial y generación de informes. Al analizar todas estas reglas, se muestran requisitos consistentes para administrar programas de calidad de datos. A veces este es un requisito implícito, pero generalmente los requisitos de calidad de los datos son explícitos: Es necesario implementar procedimientos para cubrir a todos los clientes que abren cuentas: 1. Capturar la información de identificación de todos los clientes; 2. Verificar la identidad del cliente; 3. Informar al cliente sobre el proceso CIP; 4. Identificar la información requerida para comparar el nombre del cliente con la lista del gobierno (antes de abrir una cuenta): 1. Nombre 2. Dirección (2. Sección 326: Programa de validación de clientes Ley Patriota de EE. UU.) Para administrar su Programa de información del cliente (CIP), muchas instituciones financieras confiarán en los productos de calidad de datos de Informatica. Los analistas comerciales utilizan la calidad de datos basada en roles.

Un banco de trabajo que define reglas para garantizar que los datos requeridos por el CIP sean adecuados para su propósito. En general, es necesario medir e informar las siguientes dimensiones de calidad de los datos: Integridad: garantizar que todos los datos del CIP estén completos: garantizar que; se completan todos los datos de CIP. Formato correcto. Consistencia: Analiza múltiples atributos para garantizar la coherencia de los datos, como moneda y país, ciudad y país. Repetibilidad: ¿Este cliente ya existe? ¿Está relacionado el empleado (KYE)? ¿Este cliente está relacionado con otros clientes? Precisión: asegúrese de que los datos CIP sean válidos: fecha, código de producto, dirección y rango: ¿Esta transacción supera un monto determinado? ¿Un cierto nivel? Los analistas pueden utilizar dichos informes para identificar rápidamente las diferencias de datos que requieren atención en el CIP basado en riesgos, como el país de residencia, la naturaleza del negocio del cliente, el tipo de cuenta o producto bancario, el número y el valor de las transacciones. Cuando los datos se capturan en una lista de PEP (por ejemplo, al abrir una nueva cuenta) o mediante el procesamiento por lotes, se pueden generar resultados de búsqueda altamente precisos e informes de excepciones de calidad de los datos. Normalmente, los procesos de mejora de la calidad de los datos se aplican al cliente existente. datos de transacciones para mejorar CDD.

O puede usar Informatica o un motor de informes de terceros para enviar informes. Los analistas de campo de 5AML para comparar también pueden usar la solución de calidad de datos de Informatica. , para cumplir con sus requisitos reglamentarios, compara a los clientes con listas de vigilancia. Normalmente, los campos utilizados para la comparación en los procedimientos contra el lavado de dinero incluyen: nombre x año de nacimiento, apellido x dirección, género x identidad y fecha de nacimiento.

Por ejemplo, un analista de negocios podría ponderar cada campo individualmente centrándose en el año de nacimiento en lugar de en la fecha de nacimiento completa. En este informe de muestra, que se muestra en la Figura 2.

Puede generar una lista, como una lista de vigilancia, de todas las posibles coincidencias entre el conjunto de datos del cliente y el conjunto de datos de referencia. La AML puede desencadenarse por un peso predeterminado.

Esté atento y deje que las personas relevantes presten atención a estos juegos. Si la coincidencia de estos registros en un informe AML no es una coincidencia verdadera, puede establecer una marca para evitar que futuros informes utilicen la misma coincidencia.

El proceso de búsqueda y coincidencia también se puede utilizar simplemente para identificar y eliminar contenido duplicado del sistema. El posible contenido duplicado se puede enviar a través del cliente web a un administrador de calidad de datos, quien revisará los registros de mala calidad y seleccionará el registro maestro o perfecto con los mejores datos entre los duplicados. CIP es un firewall de calidad de datos integrado en el algoritmo AML y es un subconjunto del programa KYC que, en última instancia, requiere el mismo proceso de calidad de datos. Normalmente, los administradores de calidad de datos amplían el CIP de las soluciones de calidad de datos de Informatica.

Las características incluyen datos relacionados con la situación financiera y los objetivos de inversión del cliente. Los datos de los clientes se pueden mejorar y verificar utilizando los métodos técnicos probados de Informatica para ayudar a lograr los objetivos de KYC. Por lo tanto, no sólo incluye una mayor detección de fraude, sino que también mejora los datos de las relaciones con los clientes y el marketing de ventas. Efectivamente, tiene un firewall de calidad de datos incorporado frente a algoritmos AML o motores de terceros. Estos firewalls realizan dos funciones: identificar datos de mala calidad: estandarizar, limpiar los datos y/o escalarlos de manera oportuna, aumentando así la eficiencia del motor AML y reduciendo la aparición de riesgos. Identifique fraudes potenciales: utilice reglas comerciales de calidad de datos para detectar fraudes tempranamente antes de cargar datos en el motor. La Figura 4 muestra una vista detallada del firewall de calidad de datos. Contiene niveles de calidad de datos detallados (columna O). Del 0 al 100

Estas calificaciones se utilizan primero para indicar los registros que contienen el peor DQ. Los analistas de negocios pueden ajustar fácilmente la ponderación de estos niveles según la situación. Además, el informe destaca los niveles de riesgo CIP/KYC que se aplican a los datos que utilizan Informatica Data Quality. Estos niveles de riesgo identifican escenarios de datos específicos que podrían conducir a fraude, incluso antes de que los datos se carguen en el motor AML. Un componente importante de cualquier programa contra el lavado de dinero: Debida diligencia del cliente La realización de una debida diligencia del cliente (CDD) exhaustiva y completa sobre clientes nuevos y existentes es un componente importante de cualquier programa contra el lavado de dinero. CDD se basa en datos y procesos CIP y

de monitoreo KYC de alta calidad para mejorar la relación con el cliente, y brinda sus servicios como parte de la función general de control de riesgos. Leyes como la Ley Patriota de EE. UU. y la Tercera Directiva contra el lavado de dinero ponen gran énfasis en la CDD.

La calidad de los datos de Informatica también es adecuada para proporcionar un monitoreo continuo para cumplir con estos requisitos. Como se mencionó anteriormente, la gestión activa de la calidad de los datos garantiza que CDD se vuelva más eficiente con el tiempo cuanto más bajos sean los datos que utilice. Capítulo 2 Debida diligencia del cliente Artículo 8 1 1. Las medidas de diligencia debida del cliente deben incluir: (a) identificar al cliente y verificar su identidad... (ii)

Cuando corresponda, identificar al beneficiario y tomar medidas apropiadas basadas en el riesgo para verificar su identidad, de modo que las instituciones o personas cubiertas por la presente Directiva puedan reunirse con beneficiarios que conozcan, incluidas personas jurídicas, fideicomisos o estructuras jurídicas similares, y adoptar medidas adecuadas basadas en el riesgo para comprender la propiedad y el control de los clientes.

Estructura; (iii)

Obtener información sobre el propósito y propósito de la relación comercial; (d) Monitorear la relación comercial de manera continua, incluyendo la revisión de las transacciones... UE III En la Figura 6 se muestra un ejemplo de las normas de calidad de datos contra el lavado de dinero contenidas en la Directiva contra el lavado de dinero. Telemercadeo En telemercadeo, el equipo de ventas, los productos y la base de datos de marketing constituyen los tres elementos esenciales de “quién vende”, “qué vende” y “a quién le vende”. Los datos de marketing, como punto de convergencia para las ventas objetivo, desempeñan un papel vital en el telemercadeo. Cómo gestionar y utilizar estos valiosos recursos de datos de manera científica y estandarizada debería ser una pregunta que todo gerente de telemercadeo debe considerar e implementar seriamente.

¡Comencemos primero con la teoría y veamos los aspectos de la "gestión de datos" a los que se debe prestar atención en el telemercadeo!

La primera pregunta: importación de datos

Los datos deben procesarse antes de importarse para garantizar que puedan mantenerse, contarse y analizarse durante el proceso de solicitud.

Primero, debemos dejar de analizar y definir propiedades de datos sin procesar. Por lo general, en el telemarketing se solicitan varios datos de diferentes canales, y cada uno de estos datos tiene sus propias características. Esto requiere que distingamos atributos geográficos similares (locales y remotos), atributos de género (masculinos y femeninos), atributos de edad (diferentes grupos de edad), atributos de ingresos (grupos de ingresos altos, medios y bajos), atributos de la industria (finanzas, industria de TI). ) etc. En función de estas diferentes características, los atributos de los datos se clasifican y codifican, y los datos se procesan posteriormente mediante llamadas de ventas. Luego podemos analizar y encontrar los grupos de usuarios que sean más adecuados para la venta de productos, completando así la adquisición y selección prioritaria de información de datos y maximizando la aplicación de recursos de datos.

En segundo lugar, hay otra tarea aparentemente simple pero significativa, que es preprocesar los datos antes de importar y eliminar algunos datos no válidos, como datos con números de contacto cortos y datos con números de contacto faltantes, o datos que. es indistinguible de los atributos del grupo de clientes objetivo. Dado que estas tareas se programan antes de la importación de datos, los datos sin procesar se pueden procesar en lotes para obtener datos que estén más en línea con las especificaciones de marcado de manera más eficiente, al tiempo que se garantiza que los datos asignados a los TSR de primera línea sean precisos y efectivos, ahorrándoles tiempo y eficiencia del trabajo.

Finalmente, también se recomienda dejar de numerar y realizar copias de seguridad de los datos originales antes de que los datos se pongan oficialmente en uso. Porque una vez que los datos se envían a TSR, el mantenimiento y la actualización de la información de los datos se detendrán de vez en cuando a medida que avance el trabajo de ventas. Cuando necesite ver la información original de los datos, necesitará esta base de datos original respaldada. Dado que la numeración de los datos originales se detuvo en la etapa inicial, en este momento solo necesitamos realizar una consulta correspondiente simple utilizando el número de datos en la base de datos original.

Después del procesamiento anterior, ahora podemos importar recursos de datos y esperar a que el telemercadeo nos brinde enormes ganancias.

Segunda pregunta: uso de datos

Una vez importados los datos procesados, estarán unificados y ordenados. Este es un buen comienzo.

A continuación, echemos un vistazo al proceso de solicitud de datos. Cuando TSR utiliza datos de marketing, realizará una serie de mantenimiento de los datos, incluido el registro y cambio del estado de marcado y el estado de ventas. Primero echemos un vistazo a varios estados de marcación y estados de ventas y lo que significan para nosotros.

Estado de acceso telefónico: el estado de acceso telefónico se refiere al estado de conexión de la información de contacto, como los números de teléfono, en los datos de marketing posteriores al contacto. Por lo general, podemos etiquetar según el estado que se muestra en la siguiente figura.

Los datos marcados con el estado de acceso telefónico tienen un significado más profundo: la vitalidad de los datos. Los datos que nunca podrán conectarse provienen de TSR.

"Cancelar", nunca llame para ocupar tiempo de TSR; la demanda de datos de "Ocupado/Ocupado" tiene prioridad sobre "Llamada incorrecta", porque este estado indica que el teléfono todavía está en uso, continúe. ¡La posibilidad de atravesar el contacto será la mayor! Por cierto, respecto a los datos que requieren "contacto continuo", debería ser "marcar en la hora equivocada". La llamada marcación incorrecta significa principalmente escalonar los días laborables y no laborables, o escalonar la hora durante el día y la noche. Sólo mediante la marcación escalonada de "marcación en días laborables", "marcación en días no laborables", "marcación diurna" y "marcación nocturna" se puede realizar la aplicación eficaz de los recursos de datos.

Echemos un vistazo al "Estado de ventas". El estado de venta solo se refiere a los tres estados cuando se conecta la llamada y se encuentran los datos del contacto:

Victoria: la victoria de venta del teléfono está pendiente de seguimiento: el contacto necesita pensar, o la venta está no se completa y se rechaza la demanda de seguimiento adicional. Las fallas de telemercadeo se identifican fácilmente durante el proceso de solicitud de telemercadeo si el contacto no acepta el producto o servicio que se vende. Lo que cabe señalar aquí es que se centra la atención en los dos estados: "para seguimiento" y "rechazado". Al observar los datos de seguimiento, espero comprender cuáles son los principales factores que hacen que los usuarios piensen en sus necesidades. ¿Rendimiento, calidad y cantidad? ¿Precio del producto? ¿O servicio postventa? Mientras domines esta información, podrás familiarizarte más con los atributos de los datos y diseñar guiones de ventas de manera específica para tratar con este tipo de usuarios cuyas necesidades "requieren seguimiento".

Del mismo modo, también necesitamos descubrir las principales razones del rechazo de los usuarios y tomar medidas efectivas para mejorar la tasa de éxito de ventas después de corresponder a los atributos de los datos.

La tercera pregunta: aplicación de los datos

La experiencia nos dice que no es necesario distribuir los datos de manera uniforme a cada TSR, porque diferentes TSR usan los datos de diferentes maneras. Al distribuir datos, debemos realizar ajustes efectivos en tiempo real en función de la utilización de datos de cada TSR.

En este momento, existen dos parámetros que pueden ayudarnos a controlar los datos de marketing: "tasa de contactos ganadores" y "tasa de seguimiento en espera". Se presentan a continuación.

Tasa de contactos exitosos = suma de datos de usuario contactados/suma de datos conectados × 100. La tasa de contacto exitoso es una métrica para juzgar la validez de sus datos. Comprenda los datos marcados a través de la tasa de contacto exitoso. Hay varios datos para encontrar la persona de contacto y el objetivo de ventas. La tasa de contacto ganador es un valor de estado en constante cambio. En la segunda ronda, la tercera ronda, o incluso más diales, la tasa de contacto ganador aumentará. Para mejorar en cierta medida la aplicación efectiva de los datos, se puede establecer una "tasa mínima de contactos ganadores". Cuando la "tasa de conexión exitosa" de los datos asignados es menor que el valor objetivo establecido, la asignación de nuevos datos se reducirá y el TSR deberá dejar de marcar repetidamente "tono de ocupado/tono de ocupado" y "sin respuesta" en datos desconectados para lograr El propósito es aumentar la "tasa de conexión exitosa" y aplicar los datos de manera más efectiva.

Tasa de seguimiento = total de datos a seguir/total de datos en contacto con contactos × 100. Según la fórmula, no es difícil entender que la "tasa de seguimiento" se centra en la cantidad de datos que se deben seguir entre los datos donde se puede encontrar el contacto. En el proceso de detener el control de la distribución de datos, el requisito establece una "tasa de seguimiento más alta" para este indicador.

Establece la "tasa máxima de seguimiento". Para hacer un buen uso de los recursos de datos, realizar ventas secundarias con los contactos que está considerando de manera oportuna y aprovechar las mejores oportunidades de seguimiento, TSR debe verificar periódicamente los datos de seguimiento e iniciar llamadas. Cuando se excede la "tasa de seguimiento máxima", significa que hay demasiados datos en los datos de marketing llamados por TSR que deben ser objeto de seguimiento. En este momento, es necesario reducir la asignación de nuevos datos para que pueda centrarse en el seguimiento de los objetivos de ventas que están interesados ​​pero aún dudan.

Al controlar la "tasa de contactos exitosos" en los datos de marketing, puede encontrar más contactos y al controlar la "tasa de seguimiento en espera", puede encontrar más oportunidades de ventas exitosas. Prestar atención a estos dos indicadores es una parte importante de la “gestión de datos” del telemarketing