Explicación del término "Ciencias de la Gestión" para el examen de autoestudio

1. La gestión es el proceso en el que los directivos utilizan diversos recursos para lograr un determinado objetivo.

2.Ciencias de la gestión: Es una materia interdisciplinaria integral que aplica teorías, métodos, técnicas y conocimientos multidisciplinarios y multidisciplinarios. Su propósito es estudiar las actividades de gestión de los seres humanos utilizando recursos limitados para. lograr objetivos organizacionales comportamiento social dinámico, complejo e innovador y sus leyes.

3. Las características básicas de la ciencia de la gestión: (1) basada en la toma de decisiones de gestión; (2) basada en una metodología científica; herramienta.

4. El método gráfico sólo se puede utilizar en el caso de dos variables, y se obtienen dos conclusiones importantes: (1) El conjunto de restricciones de la programación lineal es un poliedro convexo (2) Si es programación lineal; tiene solución, entonces La solución debe alcanzarse en las esquinas (puntos fijos) del poliedro convexo.

5. Solución básica: suponga que B es la base del problema de programación lineal, el coeficiente de la función objetivo de la matriz de coeficientes de restricción A es alto C y el vector de decisión X se divide en bloques, entonces hay es: A = (B, N), C=(CB,CN), X=[XB,XN]T, donde N representa una matriz no básica, se obtiene el subvector compuesto por la función objetivo correspondiente a la variable básica de AX =b: AX=(B, N) [XB, XN]T=B XB +N XN=b, resuelva XB a partir de esta fórmula y deje que el valor de la variable no básica sea igual a cero, y X = [B-1b, 0]T, entonces X se llama solución básica bajo la base B.

6. Programación lineal entera: una programación lineal que restringe algunas o todas las variables de decisión para que solo tomen números enteros.

7. Programación no lineal: Los problemas de optimización que contienen funciones no lineales en los objetivos o restricciones se convierten en programación no lineal.

8. Gradiente: Si f(X) tiene derivadas parciales continuas de primer orden en el dominio de X0, entonces el vector compuesto por las derivadas parciales de f(X) con respecto a n variables en el punto X0 se llama f El gradiente de (X) en ) La matriz compuesta por las derivadas parciales de segundo orden de combinaciones por pares de n variables en el punto La idea básica de la solución es utilizar una función compuesta para transformar un problema multiobjetivo en un problema de un solo objetivo.

11. Los gráficos y las redes tienen dos elementos básicos: uno es el objeto que se estudia, generalmente representado por puntos; el otro es una cierta relación entre los objetos que se estudian, generalmente representado por puntos. conexión entre ellos

12. Borde: Una conexión sin una flecha entre dos puntos Un gráfico compuesto por puntos y aristas se llama gráfico no dirigido

13. Arco: Un gráfico con una. La línea con flechas entre dos puntos que consta de puntos y arcos se llama gráfico dirigido

14. Red: en el gráfico dirigido D=(V, A), Vs es el punto inicial, Vt es el punto final, y a cada arco (Vi, Vj) ∈ A se le asigna una cantidad cij>0, que se llama capacidad del arco. Entonces, dicho gráfico dirigido se llama red, y se registra como D = (V, A, C )

15. Árbol: un gráfico conectado sin ciclos

16. El método de Dijkstra es un método eficaz para resolver el problema del camino más corto

17. Diagrama de red Componentes de: flechas , nodos y líneas

18. Toma de decisiones determinista: este tipo de problema de toma de decisiones solo puede ocurrir en un determinado estado natural, y el resultado de cada plan de acción en este estado natural se puede calcular

19. Toma de decisiones basada en riesgos: este tipo de problema de toma de decisiones puede tener múltiples estados naturales durante el proceso de toma de decisiones. Cada plan de acción tiene diferentes finales en diferentes estados naturales y se puede predecir. Estimar de antemano la probabilidad de cada estado natural

20. Toma de decisiones completamente incierta Este tipo de problema de toma de decisiones puede tener múltiples estados naturales durante el proceso de toma de decisiones, pero en este tipo de decisión; problema de toma de decisiones, no se puede estimar de antemano. Por lo tanto, la probabilidad de ocurrencia de cada estado natural se denomina toma de decisiones completamente incierta

21. Árbol de decisión: es un gráfico en forma de árbol compuesto por nodos y ramas que se expande horizontalmente de izquierda a derecha

p>

22. La toma de decisiones bayesiana se divide en tres pasos: análisis a priori, análisis previo a la prueba y análisis posterior

23. El valor de utilidad es la satisfacción del valor de pérdidas y ganancias bajo riesgo en la mente del tomador de decisiones Medición del grado

24. En términos generales, un inventario insuficiente provocará pérdidas por falta de existencias, mientras que un inventario excesivo provocará retrasos en el material, aumentará los costos de inventario y ocupará demasiado capital de trabajo

25. El suplemento es la entrada del sistema de almacenamiento

26. Estado: la "posición" de cada etapa del proceso se llama estado

27. La decisión de instalación inicial en una determinada etapa Finalmente, la elección de qué estado evolucionar de este estado a la siguiente etapa se llama toma de decisiones

28. El estado y la toma de decisiones de la etapa anterior determinan el estado de la siguiente etapa, y la relación entre ellos se llama transición de estado

29. En todo el proceso desde la etapa k=. 1 a la etapa k=n, las decisiones seleccionadas en cada etapa constituyen una secuencia de decisiones, que se llama estrategia

30 El Proceso de Jerarquía Analítica (AHP para abreviar) fue propuesto por T.L Saaty, profesor de la Universidad de Harvard. Universidad de Pittsburgh en Estados Unidos, a mediados de la década de 1970. Su idea básica es descomponer un problema complejo en varios factores componentes y agruparlos según relaciones de dominancia, formando así una estructura jerárquica ordenada.

31. Varios elementos básicos del problema de contramedida: jugadores, estrategias, situaciones, ganancias y pérdidas

32 Jugadores: participantes con poder de decisión en la estrategia

p>

33. Estrategia y conjunto de estrategias: En un juego de estrategia, un plan de acción factible del jugador en el juego se denomina una de sus estrategias. Una estrategia puede contener sólo un paso de acción.

En estrategias más complejas, puede estar compuesto por una serie de pasos que guían las acciones de principio a fin. Normalmente un jugador tiene varias estrategias para elegir, y todas las estrategias de los jugadores se denominan conjuntos de estrategias.

34. Situación: cuando cada jugador elige una estrategia de su propio conjunto de estrategias, el grupo de estrategias formado se llama situación

35. Valor de ganancia y pérdida: se refiere a la situación después de que el jugador selecciona una determinada situación Correspondiente valor del ingreso

36. Características del juego finito de suma cero para dos jugadores:

(1) Solo hay dos jugadores en el juego y los conjuntos de estrategias de ambos lados son finitos conjuntos

(2) En un juego de suma cero, la suma de las ganancias de ambas partes es cero y la ganancia de A es la pérdida de B. Por lo tanto, el juego limitado de dos personas de suma cero también se llama. En un juego matricial

 37, en una situación de suma distinta de cero donde las ganancias y pérdidas de dos jugadores A y B no son cero, la descripción general del problema debe considerar tanto la matriz de pagos de A como la matriz de pago de B. Este tipo de juego se llama juego de dos jugadores de suma finita distinta de cero, también conocido como juego de doble matriz

38. Teorema 1: Hay al menos un equilibrio. situación para cualquier juego de doble matriz

39. Los componentes básicos del sistema de colas son: proceso de entrada, reglas de cola, agencias de servicios

40. sistema de pérdida, sistema de espera y sistema mixto

41 El sistema de espera se divide en: primero en llegar, primero en ser atendido (FCFS), último en llegar, primero en ser atendido (LCFS), servicio prioritario (PS)

.

42. Representación del modelo de cola: X/Y/Z, donde X representa la distribución de los intervalos de tiempo de llegada de los clientes; Y representa la distribución del tiempo de servicio; Z representa el número de mesas de servicio paralelas; 43. M representa la distribución exponencial negativa; Ek representa la distribución Erlang de orden k; D representa la distribución de longitud fija; G representa la distribución general

44. obedece a la distribución exponencial negativa, y el tiempo de servicio de la mesa de servicio también obedece a la distribución exponencial negativa y al modelo de mesa de servicio única

45. La entrada del flujo de Poisson cumple las condiciones:

(1) No hay efecto secundario, es decir, el número de clientes que llegan en intervalos de tiempo disjuntos son independientes entre sí.

(2) Estacionariedad, es decir, la probabilidad de tener 1 cliente en el; El período [t, t+Δt] no tiene nada que ver con t, solo está relacionado con Δt (uniforme), es decir, P{N[t, t+Δt]=1 }≈λΔt (registrado como P1(Δt) ≈λΔt);

(3) Ordinariedad, también conocida como rareza, es decir, solo un cliente puede llegar en un instante, es decir, para clientes suficientemente pequeños Δt, ΣPn(Δt)=0, n lleva 2 al infinito positivo.

46. Matriz de probabilidad normal: Para cualquier matriz de probabilidad P, si hay m tal que todos los elementos de Pm (m es un entero positivo mayor que 1) son números positivos, entonces P se llama probabilidad normal. matriz

47. Proceso aleatorio: se refiere a una familia de variables aleatorias {X (t), t∈T} que depende de un parámetro cambiante t. El conjunto T de todos los valores posibles del cambio. El parámetro t se llama espacio de parámetros. El conjunto S compuesto por los valores de T(t) se denomina espacio de estados del proceso aleatorio. Los procesos aleatorios se pueden dividir en cuatro categorías según si S y T son conjuntos discretos o no discretos. Las características de este tipo de procesos son: si se sabe que el sistema está en el estado X en el tiempo t, el estado del sistema en el tiempo τ (τ>t) no tiene nada que ver con el estado del sistema antes del tiempo t Este proceso se llama proceso Mal Cove.

48. Cadena de Markov: supongamos que {Xn, n=0, 1, 2,...} es una secuencia de variables aleatorias y use "Xn=i" para indicar que el sistema en el momento n está en el estado i. El evento se llama pij (n) = p (Xn + 1 = j | Probabilidad de transición de un paso del sistema. Si para cualquier entero no negativo i1, i2,...in-1, i, j y todos n≥0, existe p (Xn+1=j|Xn=i, Xk=ik, k=1, 2 ,... ..., n-1) = p(Xn+1=j|Xn=i) = pij(n), entonces se dice que {Xn} es una cadena de Markov.

49. Cadena de Markov homogénea: Si la probabilidad de que el sistema pase al estado j después de k pasos es la misma siempre que comienza desde el estado i, entonces la siguiente fórmula es verdadera: p(Xs+k= j |Xs = i) = p (Xk+1 = j| Cadena de Kov.

50. Para conocer el concepto de probabilidad de estado estacionario, consulte el libro P297.

51. Las propiedades de la distribución de probabilidad de estado estacionario:

(1) Estable -distribución de probabilidad de estado e inicialización La distribución de probabilidad es irrelevante;

(2) Si la cadena de Markov es estándar, es decir, su matriz de probabilidad de transición P es una matriz aleatoria regular, entonces hay un vector de probabilidad λ *=[λ*1 λ* 2...λ*n]T satisface PTλ*=λ*, λ*j es la probabilidad de estado estacionario del estado j, y λ* es el vector de probabilidad de estado estacionario

52. Para el estado de la cadena de Markov i, si pii=1, es decir, después de alcanzar el estado i, permanece en i permanentemente y no puede transferirse a ningún otro estado. Entonces, el estado i se llama absorbente. estado o un estado absorbente, de lo contrario es un estado no absorbente.

53. Si una cadena de Markov tiene al menos un estado de absorción, y cualquier estado no absorbente al estado absorbente es posible (no tiene que ser un paso), entonces la cadena de Markov se llama absorbente. Cadena de Markov.

54. Simulación: También conocida como simulación, es una tecnología que analiza el sistema basándose en métodos numéricos. Primero diseña un modelo para el sistema a estudiar y observa y cuenta los cambios en el estado del sistema a través de experimentos para obtener el rendimiento básico del sistema.

55. Pasos del proceso de simulación:

(1) Identificación del problema

(2) Establecimiento del modelo

(3) Simulación

(a) Determinar variables aleatorias y su distribución

(b) Generar números aleatorios distribuidos uniformemente

(c) Generar datos simulados de variables aleatorias

(d) Cálculo del modelo

(4) Análisis de resultados

56. Métodos de generación de datos de simulación: método de transformación inversa, método de combinación, método de aproximación y método de selección

p>