La importancia del Big data



Las muchas funciones del big data en RRHH

Los recursos humanos no han sido tradicionalmente conocidos por utilizar big data... o bien por tener conjuntos de datos lo suficientemente grandes como para emplearlos en el análisis. Pero eso ha ido cambiando conforme más organizaciones reconocen la presencia y el potencial de el big data en múltiples áreas de RRHH.

Erik van Vulpen escribe para la Academia para Crear los Recursos Humanos que aunque los datos de RRHH pueden carecer de volumen y ser en gran parte estáticos, tienen suficiente variedad y valor para generar valiosos conocimientos sobre la fuerza de trabajo mediante la inteligencia de negocios y el análisis de RRHH.

Aquí hay una mirada a varias áreas donde el big data de recursos humanos tienen potencial.




Optimizar el reclutamiento y la retención

El reclutamiento de empleados de calidad es un proceso costoso y que requiere un buen tiempo, por lo que los departamentos de recursos humanos están motivados para localizar personas que se queden y animar a los empleados actuales a no irse. el big data pueden asistir de múltiples formas.

Cuando se aplican a la contratación, los empleadores pueden utilizar big data para predecir mejor las necesidades de contratación, al tiempo que mejoran la calidad de exactamente la misma y la retención de los empleados, dice John Feldmann de Insperity a Forbes. Al extraer los datos de los empleados e identificar los patrones relacionados con las habilidades, las calificaciones de desempeño, la permanencia, la educación, los papeles pasados, etc., las empresas pueden reducir su tiempo de contratación, progresar el compromiso y la productividad de los empleados y disminuir al mínimo la rotación de personal.

En cuanto a la retención, con la ayuda de la tecnología de big data, los algoritmos pueden apuntar a los empleados que corren el riesgo de irse interpretando su actividad on line, las actualizaciones de sus perfiles, su historial de empleo, su desempeño laboral y sus datos de nómina, escribe Vikash Kumar para AIIM -- La Asociación para la Gestión Inteligente de la Información. Cuando el sistema señala a un empleado valiosísimo, tienes la oportunidad de retenerlo ofreciéndole un aumento de sueldo, un papel más desafiante o más adiestramiento (y desarrollo).

Para el reclutamiento, Kumar añade, Los modelos de análisis de RRHH pueden usar los registros de los empleados triunfantes para construir un perfil de alto desempeño. Lo que se obtiene es una herramienta de busca de talentos que puede enviar mensajes personalizados al talento adecuado.


El Big data puede combatir para proporcionar análisis en tiempo real

Trabajo en un estudio de mercado de los integradores de sistemas (SI) que incorporan sistemas de administración de almacenes (WMS). Tenía la sensación de que los distribuidores de software escriben el software, y o bien los SI o/y la empresa de software implementan el software. No es tan fácil. A veces los integradores de sistemas escriben software que complementa las soluciones WMS que implementan. Estas SI han aprendido las debilidades de múltiples sistemas y han escrito aplicaciones complementarias para cerrar las brechas.

Un ejemplo viene de un integrador de sistemas llamado Longbow Advantage. Ellos crearon un producto llamado Rebus diseñado para mejorar el reporte en tiempo real de las soluciones WMS.

Charlé con un directivo de la cadena de suministro de una empresa de fabricación que había incorporado Rebus. Este director me dijo que habían sustituido una solución WMS de una compañía ERP con una de las mejores soluciones de la raza. El director me dijo: Logramos toda la funcionalidad que aguardábamos. Había toneladas de funcionalidad - cosas como el intercalado de tareas y el soporte para el crossdocking. Pero teníamos una brecha en la visibilidad del trabajo que se hacía. El informe en tiempo real del trabajo era más enclenque de lo aguardado.

Las soluciones WMS son sistemas de Big Data con bases de datos de producción. La base de datos de producción se hace cargo de dar tareas a los trabajadores del almacén y de continuar la realización de esas tareas. Toda la lógica de optimización también interactúa con la base de datos de producción. Los trabajadores del almacén utilizan pistolas de radiofrecuencia para cerciorarse de que están recogiendo de las ranuras adecuadas, para señalar al sistema que han completado una labor y para conseguir sus próximas asignaciones. Al acceder a la base de datos de producción, las pistolas RF se ralentizan hasta un grado inaceptable, tal vez varios segundos para obtener una tarea. Esto es una eternidad en un almacén muy frecuentado.

Con lo que en vez de conseguir análisis detallados, y resguardar la base de datos de producción de WMS, se golpea un archivo, lo que quiere decir que los análisis son, en el mejor de los casos, de múltiples horas de antigüedad. Conforme Alex Wakefield, el CEO de Longbow Advantage, las soluciones basadas en la nube no mejoran las cosas. Las compañías de software siempre y en todo momento pueden poner más potencia de computación en un inconveniente, mas más servidores no van a ayudar a los clientes a acceder a sus datos de forma más eficiente. Eso es un problema de estructura de la base de datos.

La solución de Rebus utiliza una base de datos de documentos - una base de datos NoSQL de Mongo. Esta tecnología permite que los grandes conjuntos de datos sean accedidos y analizados mucho más de manera rápida. Las transacciones creadas en el WMS también fluyen en la solución Rebus. La compañía manufacturera con la que hablé afirmó que pueden conseguir análisis que se fundamentan en transacciones que están a menos de 5 minutos de lo que está ocurriendo en el piso del almacén. En los 60 días de la contratación, estos análisis de tiempo cercano se hicieron completamente libres. Mas aun en los primeros treinta días recibíamos contenido, afirmó el director. Longbow Advantage entendió las estructuras de datos que hicieron que esto fuera más similar a una implementación de una solución off the shelf que a un proyecto de análisis personalizado.

Ahora este fabricante puede hacer preguntas como ¿Cuántos camiones están en el patio y listos para ser descargados? Los gerentes pueden monitorear todo el trabajo de salida que tiene que ocurrir durante el día y ver de qué forma progresa el día. Por ejemplo, ¿se hacen los pedidos de salida que deben hacerse para un envío de siete am? Hora por hora, se pueden monitorear las estadísticas de los objetivos de recolección y empleo de AGV. Si el almacén se está quedando atrás, el gerente puede pesquisar en los datos y comprender lo que está ocurriendo y lo que se podría hacer para volver a la normalidad. Si el almacén se está moviendo ya antes de lo previsto, el gerente puede solicitar voluntarios que deseen volver a casa temprano. Esta operación tiene pantallas de T.V. que muestran los análisis en tiempo real, por lo que no solo los gerentes tienen acceso a lo que sucede. En última instancia, según este directivo de logística, esta solución nos permite y responde a el interrogante '¿Estoy adelante o atrás? ¿Estoy ganando o perdiendo el día?

El directivo de la cadena de suministro terminó diciendo, asimismo aprovechamos a Rebus para archivar nuestros datos WMS. Esto nos permite obtener análisis de los datos históricos en segundos. Esto ha sido exageradamente útil para rastrear el movimiento de productos dentro y fuera de nuestra red. Similar a nuestros datos WMS en vivo, Rebus es una parada para comprar datos archivados en todos nuestros sitios.

Certificaciones en ciencias de la información para mejorar tu currículum y tu salario.

A fines de agosto, Glassdoor tenía más de cincuenta y tres ofertas de empleo que mentaban el aprendizaje automático (ML) y veinte trabajos que incluían la ciencia de los datos con salarios que iban de 50.000 a más de ciento ochenta dólares estadounidenses. Poco a poco más empresas hacen del análisis de datos y del aprendizaje automático un elemento central del desarrollo de nuevos productos y de las oportunidades de ingresos futuros.

Las grandes empresas de tecnología, como las organizaciones tecnológicas independientes, ofrecen programas de formación para personas que son nuevas en la ciencia de los datos, así como para profesionales que desean dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos en línea para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículo.


Certificado profesional de ciencias de los datos de IBM

IBM ofrece este programa en Coursera, que es dado por empleados de la empresa. Los estudiantes de este curso tomarán una serie de laboratorios prácticos en la nube de IBM que dan experiencia con Ir aquí Jupyter/JupyterLab, GitHub, R Studio y Watson Studio.

Este programa on line toma alrededor de diez meses para completarse y tiene 9 cursos:

Qué es la ciencia de los datos Herramientas para la ciencia de los datos
Metodología de la ciencia de los datos
Pitón para la ciencia de los datos y la IA
Bases de datos y SQL para la ciencia de los datos
Análisis de datos con Python
Visualización de datos con Python
Aprendizaje de máquinas con Python
La piedra angular de la ciencia de los datos aplicados




Certificación en Inteligencia de Negocios de Oracle

Esta formación preparará a las personas para utilizar el software de Oracle para optimizar las operaciones comerciales y crear informes, modelos y previsiones. Oracle ofrece capacitación en inteligencia empresarial en 4 categorías:

BI Enterprise Edition - aprenda a edificar y administrar cuadros de mando
Essbase - aprenda a emplear el procesamiento analítico online para pronósticos y análisis
BI Publisher - aprende a crear y entregar informes y otros documentos
Aplicaciones de BI - aprenda a instalar, configurar y personalizar las aplicaciones de BI de Oracle y el almacén de inteligencia de negocios de Oracle

Las certificaciones están libres para los 2 primeros programas de adiestramiento.

El programa de certificado de desarrollo de TensorFlow

Los desarrolladores que aprueben el examen pueden unirse a la Red de Certificados de TensorFlow. Este manual cubre los criterios para tomar el examen, incluyendo una lista de verificación de habilidades, elegibilidad y recursos tolerados durante el examen.

Para aprobar el examen, los examinandos deben entender:

Los principios esenciales del ML y el aprendizaje profundo
Construyendo modelos de ML en TensorFlow 2.x
Construyendo reconocimiento de imágenes, detección de objetos, algoritmos de reconocimiento de texto con redes neuronales profundas y redes neuronales convolucionales
Utilizando imágenes del planeta real de diferentes formas y tamaños para visualizar el viaje de una imagen mediante las convoluciones para entender
cómo una computadora ve la información, la pérdida de la trama y la precisión
Explorando estrategias para prevenir el exceso de equipamiento, incluyendo el aumento y los abandonos
Aplicando redes neuronales para solucionar inconvenientes de procesamiento de lenguaje natural usando TensorFlow

Si estos temas son nuevos para ti, echa un vistazo al DeepLearning.ai TensorFlow in Practice Specialization on Coursera o al curso de Introducción al TensorFlow for Deep Learning sobre Udacity.

El examen cuesta cien dólares.

Leave a Reply

Your email address will not be published. Required fields are marked *