En primer lugar, front-end web:
1) Domine HTML y poder escribir una estructura HTML semánticamente razonable, clara y fácil de mantener.
2) Competente en CSS, capaz de restaurar el diseño visual y compatible con los principales navegadores reconocidos por la industria.
3) Estar familiarizado con JavaScript, comprender el contenido básico de ECMAScript y dominar 1 o 2 marcos js, como JQuery.
4) Tener una comprensión clara de los problemas comunes de compatibilidad del navegador y tener soluciones confiables.
5) Tener ciertos requisitos de rendimiento, comprender las sugerencias de optimización del rendimiento de Yahoo e implementarlas de manera efectiva en el proyecto.
Segundo, backend web:
1) Competente en jsp, servlet, java bean, JMS, EJB, Jdbc, desarrollo Flex o muy familiarizado con herramientas, bibliotecas de clases y marcos relacionados. , como Velocity, Spring, Hibernate, iBatis, OSGI, etc., y tienen un profundo conocimiento de los modelos de desarrollo web.
2) Practique el uso de sistemas de bases de datos comunes como Oracle, SQLServer, MySQL, etc. y tiene sólidas capacidades de diseño de bases de datos.
3) Familiarizados con las herramientas de gestión de configuración de proyectos maven, tomcat, jboss y otros servidores de aplicaciones, se dará prioridad a los candidatos con experiencia relevante en ajuste de carga bajo procesamiento de alta concurrencia.
4) Competente en técnicas de diseño y análisis orientado a objetos, incluidos patrones de diseño y modelado UML.
5) Estar familiarizado con la programación de redes, tener la experiencia y la capacidad para diseñar y desarrollar interfaces API externas y tener la capacidad de diseñar especificaciones API multiplataforma y diseños de llamadas API eficientes.
-
La diferencia entre análisis de datos y minería de datos Zhihu 1. El análisis de datos se centra en las reglas de conocimiento de minería de datos y descubrimiento de datos clave KDD (descubrimiento de conocimientos en la base de datos);
2. Conclusión del análisis de datos Conclusión inteligente Conclusión de la minería de datos El conjunto de aprendizaje automático (o conjunto de entrenamiento, este conjunto) descubre reglas de conocimiento;
3. ellos predicen directamente.
4. El análisis de datos requiere modelado de ingeniería para establecer modelos digitales. La minería de datos implica directamente el modelado cibernético tradicional que describe esencialmente la relación funcional entre las variables de entrada y las variables de entrada. relación entre entrada y salida, y proporcione un conjunto de parámetros de entrada de acuerdo con la regla KDD.
-
Cómo recopilar datos de back-end para el análisis de datos. Generalmente, la recopilación de datos se divide en recopilación de datos de página y recopilación de datos de API. La recopilación generalmente se realiza utilizando el lenguaje Python y el análisis de datos generalmente se basa en el marco de Python. Hay muchos datos recopilados de forma gratuita en los datos de origen, que se pueden descargar directamente. Si estás interesado, puedes ir a echar un vistazo.
Cual libro sobre análisis de datos sql 1, estadística básica: media, mediana, moda, percentil, valor extremo, etc.
2. Otros estadísticos descriptivos: asimetría, varianza, desviación estándar, significancia, etc.
3. Otros conocimientos estadísticos: población y muestra, parámetros y estadística, barras de error.
4. Distribución de probabilidad y prueba de hipótesis: diversos procesos de distribución y prueba de hipótesis.
5. Otros conocimientos de la teoría de la probabilidad: probabilidad condicional, Bayes, etc.
¿Cuál es la especialidad del análisis de datos empresariales? Zhihu puede ingresar su GPA, especialización y otra información en el sistema de referencia de solicitudes de estudios en el extranjero. El sistema comparará automáticamente los casos de estudiantes con situaciones similares de la base de datos para ver a qué universidades y especialidades han solicitado con éxito.
De esta manera, podrás ver a qué universidades y especialidades puedes postular según tu nivel actual, y posicionarte con precisión.
¿Qué aplicación de análisis de datos es mejor? Hay muchas aplicaciones para el análisis de datos, incluidas estadísticas, análisis y pruebas. Puede verlas en la aplicación Prophet, que tiene muchas funciones.
¿Cuál es mejor para el análisis de datos entre Python y R? En 2012 dijimos que R era la corriente principal en el mundo académico, pero ahora Python está reemplazando lentamente a R en el mundo académico. No sé si es por la llegada de la era del big data.
Python es más rápido que r. Python puede procesar datos G directamente; Al analizar datos, R necesita convertir grandes datos en datos pequeños a través de la base de datos (a través de groupby) y luego entregárselos a R para su análisis. Por lo tanto, R no puede analizar directamente la lista de comportamiento, solo puede analizar los resultados estadísticos. Entonces algunas personas dicen: Python = R + SQL / Hive, lo cual no es descabellado.
Una de las ventajas más obvias de Python es su lenguaje adhesivo, que también se menciona en muchos libros. Algunos algoritmos escritos en C son muy eficientes después de ser encapsulados en paquetes de Python.
(El paquete de minería de datos de Python, Orange canve
El árbol de decisiones en el análisis de 500.000 usuarios tarda 10 segundos en obtener los resultados, pero no se puede realizar durante varias horas usando R. Memoria 8G llena). Sin embargo, nada es absoluto. Si la programación vectorial en R se hace bien (es un poco difícil), lo será.
La velocidad de R y la duración del programa mejorarán significativamente.
La ventaja de R es que hay una variedad de funciones estadísticas que se pueden llamar, especialmente en el análisis de series de tiempo. Tanto los métodos clásicos como los de vanguardia tienen paquetes correspondientes que se pueden usar directamente.
En comparación, Python era relativamente pobre en este sentido antes. Pero ahora Python lo tiene.
Panda.Pandas proporciona un conjunto estándar de herramientas de procesamiento de series temporales y algoritmos de datos. Como resultado, puede manejar de manera eficiente series temporales muy grandes y dividir, agregar y periodizar fácilmente.
/Remuestreo de series temporales irregulares, etc. Como habrás adivinado, la mayoría de estas herramientas son particularmente útiles para datos financieros y económicos, pero también puedes usarlas para analizar datos de registro del servidor. Así, en los últimos años, Python se ha convertido en una excelente alternativa para tareas de procesamiento de datos debido a sus bibliotecas en constante mejora (principalmente pandas).
He realizado varios experimentos:
1. Implementé un método estadístico en Python, usando ctypes y multiproceso.
Más tarde, un proyecto necesitaba comparar métodos. Utilicé R nuevamente y descubrí que algunos paquetes en bioconductor ya usaban paralelo de forma predeterminada. (Pero ese paquete sigue siendo muy lento. Todos los subprocesos se utilizan a la vez, lo que inutiliza toda la computadora y es muy difícil leer la página web ~)
2. ordenar trabajos, similar a una base de datos, verificando de un lado a otro las coincidencias entre dos o tres tablas. Todavía se siente muy conveniente. Aunque R puede hacer este trabajo, probablemente será más lento ya que hay cientos de miles de filas de entradas.
3. Utilice Python matplotlib para dibujar. El método de dibujo de pyplot es muy diferente de R. R es un comando para dibujar puntos hacia el este.
Lucy y Pilot están listos para salir juntos. La selección de colores de pyplot es un poco incómoda. Hay relativamente pocos colores predeterminados. Puede usar colores más adelante, pero los nombres son demasiado largos. pyplot
Legend es mucho mejor que R, es semiautomático. Después de dibujar en pyplot, puedes escalarlo libremente y guardarlo como una imagen, que es mejor que r.
En general, Python es un lenguaje relativamente equilibrado, ya sea llamando a otros lenguajes, conectando y leyendo fuentes de datos, sistemas operativos o expresiones y escritura regulares, se puede utilizar en varios aspectos.
Ciencia, Python tiene ventajas obvias.
r es estadísticamente más prominente. Pero el análisis de datos no es solo estadística, recopilación de datos, procesamiento de datos, muestreo de datos, agrupación de datos, sino también algoritmos de extracción de datos más complejos, modelado de datos, etc.
Siempre que los datos superen los 100 M, R es difícil de manejar estas tareas, pero Python es básicamente competente.
Combinado con su fortaleza en programación de propósito general, podemos crear aplicaciones centradas en datos utilizando solo Python como lenguaje.
Pero no existe el mejor software o programa del mundo, y pocas personas pueden aplicar la minería monolingüe al extremo. En particular, muchas personas aprendieron R antes y no lo necesitan en absoluto ahora, por lo que será mejor para las personas que quieran aplicar lo que han aprendido a Python.
Análisis de datos y big data, ¿cuál es la plataforma de big data? La formación en big data responderá a tus preguntas:
1. Big data:
Se refiere a lo asequible. Escalas de tiempo en las que las herramientas de software tradicionales no pueden capturar, gestionar y procesar conjuntos de datos. Es un activo de información enorme, de alto crecimiento y diversificado que requiere nuevos modelos de procesamiento para tener capacidades más sólidas de toma de decisiones, conocimiento, descubrimiento y optimización de procesos.
En "La era de los grandes datos", del que son coautores Victor Meyer-Schoenberg y Kenneth Cukier, los grandes datos se refieren a todos los datos que se utilizan para el análisis y el procesamiento, y no hay atajos para el análisis aleatorio (muestra encuesta). Las características 5V de big data (propuestas por IBM): volumen (masa), velocidad (alta velocidad), diversidad (diversidad) y valor (autenticidad).
2. Análisis de datos:
Se refiere al uso de métodos de análisis estadístico apropiados para analizar una gran cantidad de datos recopilados, extraer información útil y formar conclusiones, y realizar una investigación detallada y un resumen de los mismos. el proceso. Este proceso es también un proceso de soporte del sistema de gestión de calidad. En la práctica, el análisis de datos puede ayudar a las personas a emitir juicios para poder tomar las medidas adecuadas.
La base matemática del análisis de datos se estableció a principios del siglo XX, pero no fue hasta la llegada de las computadoras que las operaciones prácticas se hicieron posibles y el análisis de datos se hizo popular. El análisis de datos es una combinación de matemáticas e informática.
El novato quiere cambiar de carrera, ¿hacer front-end web o análisis de datos? Con el rápido desarrollo de Internet, la industria del software se ha vuelto más popular. Casi todos los trabajos bien remunerados están vinculados a la industria del software y se han convertido en un símbolo de salarios elevados. Como lenguaje de desarrollo de software muy popular en los últimos años, muchas personas han elogiado y favorecido el front-end web. Dado que el front-end web es tan popular, por supuesto, las perspectivas de aprender este curso son mejores.
Mientras trabajes duro y aprendas con talento real, tu futuro será bueno. Si desea aprender bien sobre desarrollo web front-end, normalmente le llevará unas 2 semanas. Deberías echarle un vistazo en función de tus necesidades reales y luego elegir el que más te convenga. Espero que pueda ayudarte.
¿Los analistas de datos necesitan aprender hadoop? El ecosistema Zhihu Hadoop es una parte importante del desarrollo y análisis de big data y requiere una investigación enfocada.