24 Jul

Conferencia AnyLogic abril 2018

Recientemente se anunció la fecha de la próxima conferencia de simulación del fabricante AnyLogic que tendrá lugar el 18 y 19 de abril de 2018 en la ciudad de Baltimore (Maryland, USA), ver link.

A pesar que en años anteriores la conferencia se realizaba entre los meses de noviembre y diciembre de manera que coincida con el WinterSim (inicialmente) y posteriormente a la conferencia anual de INFORMS, esta vez la empresa ha decidido hacer un viraje y unirla a la conferenca especializada en inteligencia de negocios e investigación de operaciones organizada por el mismo INFORMS, la cuál tendrá lugar en Baltimore entre el 15 y el 17 de abril de 2018 (ver link). Según lo conversado con Derek Magilton, director de desarrollo de negocios de AnyLogic para norteamérica, este cambio obedece a la búsqueda de un público especializado en soluciones empresariales más que el público de índole académico el cuál es predominante en la conferencia general de INFORMS.

El cambio de fecha puede tener resultados positivos ya que en años anteriores se ha observado que el número de asistentes y de presentaciones se ha estancado lo cuál limita la popularicación de la simulación como técnica así como del software. Sin embargo, este cambio podría retrasar la rapidez en el desarrollo de ciertas funcionalidades del software que se lanzan al público generalmente en el mes de la conferencia anual. Particularmente el siguente gran desarrollo corresponde a la nueva librería de manipulación de materiales (Material Handling) la cuál es muy esperada por muchos usuarios en sectores de logística y manufactura. Por cuenta de este cambio y según confirma Gregory Monakhov del grupo de soporte técnico de AnyLogic, se espera liberar esta funcionalidad en el primer semestre de 2018, justamente para la conferencia anual.

Buena jugada? lo sabremos en abril. Nos vemos en Baltimore.

01 Apr

Nueva versión de AnyLogic 8 (cloud)

AnyLogic lanza oficialmente su versión 8 la cuál cuenta como atractivo principal que permite exportar los modelos a la nube para compartirlos pública o privadamente a usuarios seleccionados como en el caso de clientes (ver lista completa de adiciones a esta versión).

AnyLogic cloud es de acceso público, disponible en https://cloud.anylogic.com

Una vez dentro, el usuario podrá acceder a la galería de modelos públicos así como a los que el usuario tenga en su cuenta bien sea por haberlos cargado desde AnyLogic o por haber clonado modelos existentes (ver imagen)

Al elegir un modelo, el usuario puede ejecutarlo en modo virtual que es bastante rápido, o utilizando un vector que es una adaptación menos sofisticada del modelo original que permite visualizar los controles, estadísticas y en algunos casos la animación 2D. La animación 3D y objetos personalizados no están disponibles aún en esta versión.

Una ventaja importante de este mecanismo es que permite ejecutar y guardar varias configuraciones del mismo modelo (incluyendo los gráficos y estadísticas finales), de manera que los resultados se pueden comparar e incluso exportar a Excel. Además, los ficheros fuentes no están basados en Applets de Java lo que definitivamente era un inconveniente en la metodología anterior, cuando los modelos eran exportados a runthemodel y eran bloqueados por motivos de seguridad, lo que limitaba el acceso y divulgación. Finalmente, los modelos pueden ser ejecutados desde un navegador utilizando cualquier dispositivo (laptop, tableta, smartphone, etc.).

Muy interesante y necesario este salto pues esta es precisamente la tendencia de los demás simuladores y herramientas de toma de decisión, permitiendo no solo la colaboración con desarrolladores y clientes sino también la ejecución rápida de experimentos en un ambiente multi plataforma.

El siguiente video muestra varias funcionalidades de AL Cloud.

Los invito a descargar esta nueva versión en el siguiente link y a experimentar con esta nueva funcionalidad.

02 Sep

Flow Shop Scheduling

Flow Shop Scheduling

Recientemente trabajé en un proyecto con estudiantes de la universidad de Seúl (Korea) para desarrollar un simulador que pudiese implementar diferentes algoritmos de organización de la producción en un taller tipo Flow-Shop.

El modelo fue desarrollado en AnyLogic utilizando simulación a base de agentes. Los trabajos y las máquinas se representan por agentes y deben organizar la producción (secuencia de trabajos) según la metodología previamente definida. Estas metodologías pueden ser:

  • Alocación aleatoria
  • Organizado en forma ascendente por tiempo total de ciclo
  • Organizado en forma descendente por tiempo total de ciclo
  • NEH: Llamado así por sus autores Nawaz, Enscore y Ham, es tal vez el algoritmo mas eficiente par organizar talleres tipo flow shop. Parte de la organización iterativa de los trabajos comenzando por los tiempos de ciclo mayor, evaluando a cada iteración el makespan esperado y eligiendo el menor. Puede encontrar una explicación con ejemplos en el siguiente link
  • Secuenciación multi-etapa: Algoritmo propuesto por Modrák y Pandian (ver link) el cuál es una adaptación del famoso algoritmo de Johnson (1954) considerado como el mejor método de organización de 2 máquinas y n trabajos. Este algoritmo agrupa las m máquinas en dos grupos transformando el tiempo de trabajo de cada  unidad y a continuación aplica el método Johnson tradicional.

El modelo permite agregar variabilidad al tiempo de trabajo, lo que repercute en la organización original requiriendo que periódicamente los algoritmos deban ser re-ejecutados para evaluar el plan de trabajo.

Una etapa futura de este proyecto consiste en agregar múltiples máquinas por estación, almacenamientos temporales (buffers) y estratégias de re-organización que combinen las heurísticas descritas arriba con mecanismos de negociación entre los agentes de manera que las estaciones resuelvan horizontes relativamente cortos de planificación de manera autónoma.

Un video de este modelo se presenta a continuación.

16 Aug

Cuándo usar Java Class y cuándo Agentes en AnyLogic

class vs agent

Para aquellos familizarizados con la programación, es común la utilización de clases en la manipulación de objetos. Una clase en términos generales es una plantilla de código donde se crean los objetos del programa. Los objetos son entidades personalizadas con atributos y operaciones específicas (para entender con mayor detalle el concepto de clases y objetos sugiero leer los siguientes artículos: conceptos y ejemplo sencillo ).

Un concepto similar a una clase es un agente. Los agentes son plantillas genéricas que permiten capturar atributos (parámetros, variables, colecciones, etc.), realizar calculos, gráficos, animaciones e incluso incrustar grupos de agentes adicionales. Todas estas funcionalidades son igualmente posibles en una clase Java, así que porqué utilizar una u otra figura?

Desde el punto de vista de complejidad y curva de aprendizaje, el agente es mejor opción ya que todas sus propiedades son creadas con solo arrastrar el ícono del elemento requerido. Por ejemplo, si se quiere agregar una variable, se arrastra el ícono correspondiente, se cambia el tipo de valor (doble, string, etc.) y se re-nombra. Igual con colecciones, poblaciones, estadísticas, etc. (ver animación).

agent ex

La misma operación en una clase requiere de cierto conocimiento de programación para poder definir correctamente las variables, tipo de acceso, funciones, etc. En otras palabras, todo debe hacerse mediante código (ver animación).

class ex

Una clase puede volverse confusa para un usuario si desde su diseño no ha sido bien estructurada. Una práctica recomendada por muchos usuarios es utilizar agentes de manera general, incluso convertir las clases Java en agentes (AnyLogic ofrece esa posibilidad como se observa en la imagen siguiente)

convert_class

Otro beneficio relacionado con el uso de agentes es las poblaciones. Grupos de agentes pueden ser almacenados y manipulados en poblaciones, las cuales tienen incluso funciones pre-definidas que permiten organizar, filtrar, etc. Las clases Java no pueden almacenarse igual y deben ser (si se requiere) añadidas a colecciones.

Cuando usar clases?

A pesar de ser recomendados los agentes, dado que se pueden realizar las mismas actividades existen casos en los que es mejor utilizar clases, a continuación algunos ejemplos:

  1. Almacenamiento de información: En muchos modelos se requiere almacenar información (local o global) que no requiere ser manipulada, solo creada y consultada. Un ejemplo muy común es la creación de órdenes o pedidos, o la lista de pasajeros de un vuelo, o los registros de mediciones de un evento. La clase Java Pedido puede ser la lista de ítems requeridos con cantidad. Se crea periódicamente y se envía a una gente para que aliste los productos en una bodega cuyo contenido es una lista con objetos (agentes o simplemente números).
  2. Cálculos o Elementos que requieren ser transportados entre diferentes softwares: Cuando se trabaja en equipos de desarrollo, es común que partes del mismo programa sean desarrollados por diferentes personas o equipos. Los cálculos  son generalmente desarrollados por especialistas en el mismo o diferente software y luego enviados a los modeladores para ser incorporados. Las clases son ideales para esto pues son transportables y pueden ser validadas en otros ambientes (tests funcionales y control de cambios).
  3. Limitación de agentes: Ciertas versiones de AnyLogic como la PLE tienen limitaciones en cuanto al número de agentes a utilizar y por ende si el modelo es complejo se requiere combinar clases con agentes (ver comparación de ediciones, sección tamaño del modelo).

 

Editions

26 Jun

Muestreo y análisis de resultados usando AnyLogic PLE

marbles1

  • Intro
  • Teoría
  • AnyLogic
  • Muestreo
  • Descarga

Una vez construido un modelo de simulación es necesario ejecutar un Análisis Resultados para garantizar la robustez de del modelo y la validez de los hallazgos.

El análisis de resultados consiste en ejecutar múltiples repeticiones de un experimento haciendo o no cambios a una o varias variables de manera que se describa el comportamiento general del modelo y se identifiquen los patrones de los resultados dados diferentes valores de las variables de entrada. Si estas repeticiones se hacen con cambios incrementales en las variables de entrada, se conoce como Análisis de Sensibilidad. Si las variables de entrada tienen una distribución de probabilidad asociada se puede generar una secuencia combinada basada en dicha distribución, lo que se conoce como Monte Carlo. Cuando las variaciones son estratificadas (escalas uniformes) sin importar la distribución asociada se conoce como Variación de Parámetros.

AnyLogic en su versión PLE permite realizar Variación de Parámetros y Optimización. Versiones más avanzadsa como la versión profesional permiten además realizar Comparación de Experimentos, Monte Carlo, Análisis de Sensibilidad, Calibración y Experimentos personalizados (ver imagen).

exp

Siendo la variación de parámetros el único tipo de experimento disponible en la versión PLE para la fase post-simulación a continuación se explica cómo hacer muestreo y análisis de resultados usando este módulo y algunas maneras de implementar rutinas que incrementen su funcionalidad.

Al construir un modelo de simulación se debe establecer todo el espectro y distribución de las variables de entrada (parámetros). Para ello utilizamos muestreo y análisis estadístico. Esta parte pre-simulación será tratada en otro post.

Al finalizar el modelo, se deben ejecurar múltiples repeticiones con diferentes valores aleatorios y parámetros para establecer el rango total de salida. Idealmente se deben simular todos los escenarios posibles, sin embargo, en muchas ocasiones el número total de escenarios es tan alto que simular el espectro completo tarda demasiado. En estos casos es recomendable utilizar muestreo sobre los parámetros para elegir combinaciones estadísticamente representativas.

A continuación se explican los diferentes tipos de muestreo.

Tipos de Muestreo

Muestreo Aleatorio: Consiste en generar muestras eligiendo números al azar sobre la distribución de probabilidad acumulada. Esta técnica requiere un elevado número de muestras para conseguir una representación adecuada de la variable en estudio (cientos o miles de repeticiones).

Muestreo Estratificado: Consiste en segmentar la variable en grupos o estratos y elegir valores aleatorios al interior de cada sub-grupo para la simulación. Los estratos son generados a partir de información típica de la distribución observada. Requiere también de un elevado número de repeticiones aunque menor que el muestreo aleatorio.

Muestreo por Hipercubo Latino: Consiste en asignar distribuciones de probabilidad a cada variable de entrada y distribuir cada una en un número de intervalos equiprobables. Luego se eligen valores al interior de cada grupo y se combinan con las demás dimensiones de las otras variables, para obtener vectores completamente independientes y aleatorios como entradas del modelo. Dado que cada muestra es independiente, se requieren menos repeticiones pues se asume que una serie completa de experimentos con esta entrada es estadísticamente independiente.

Un inconveniente típico en este último método es que la representatividad de los resultados solo se puede evaluar luego de ejecutar todos los experimentos y en caso de no ser satisfactoria, se debe volver a empezar aumentando la cantidad de intervalos equiprobables. Una solución a este inconveniente es la utilización del Hipercubo Latino Escalable.

Segmentación

En otras ocasiones no es necesario conocer todo el espectro sino un segmento de él. Si el segmento es contínuo (ejemplo una variable puede distribuirse entre 100 y 200 visitas por hora pero solo se desea evaluar el impacto de mas de 160 visitas al día) se considera como una variación de parámetros con menos combinaciones. Cuando  las variaciones son discontinuas y combinadas, es mejor definir los escenarios previamente y luego ejecutar experimentos basados únicamente en la matriz de entrada. En AnyLogic esto se implementa fácilmente utilizando bases de datos o archivos externos.

Implementación en AnyLogic

Una vez se elige un nuevo experimento de tipo variación de parámetros, AnyLogic crea una nueva sesión en blanco donde se define la memoria total a utilizar, el agente de referencia (usualmente Main) y la forma como los parámetros van a interactuar (ver imagen). Estos parámetros pueden ser fijos o variables en un rango, es decir se fija un valor único o el valor inferior y superior, así como el paso (step) para su variación uniforme.

parVar0

De esta forma, si se tiene un modelo con 10 parámetros de entrada de las cuales 2 se planean fijas y 8 variables con 10 pasos por cada una, se deben tener al menos 100 millones de experimentos para cubrir una sola repetición de todas las simulaciones.

Ejemplo

Un ejemplo es el siguiente modelo en el cuál un taller cuenta con cuatro estaciones de trabajo en serie, cada una con un buffer de entrada con capacidad limitada. Las estaciones cuentan con un tiempo de procesamiento tn (9, 12, 8 y 14 minutos respectivamente) distribuido triangularmente más o menos 10% (ver imagen del modelo).

parVarMain2

Luego de haber ingresado 1000 unidades al sistema el modelo se detiene y verifica los indicadores claves de rendimiento. Estos son:

  • % de piezas completadas
  • Piezas en proceso promedio (WIP)
  • Tiempo de ciclo promedio
  • Tiempo total de operación del taller
  • Diferencia promedio de la utilización del mayor y menor buffer

Si suponemos que las capacidades de cada buffer pueden variar entre 1 y 20 unidades lo que representa 20 pasos ya que los variaciones son discretas, se cuenta en total con 160,000 diferentes configuraciones para evaluar todo el espacio (sin réplica).

Para comprobar esto creamos un experimento tipo variación de parámetros y asignamos los siguientes valores (ver imagen).

parVarImg1

Hacemos click en Create default UI para crear la interfaz. Luego añadimos 5 estadísticas locales (statComplete, statWIP, statCycleTime, statTotalTime, statDiffQ) en las cuales guardaremos el resultado de cada experimento así como tres histogramas (WIP, tiempo de ciclo y tiempo total).

En la sección indicando qué hacer luego de cada simulación (After simulation run) añadimos el siguiente código:

Y finalmente ejecutamos el experimento (ver imagen inferior).

parVarImg3

Como se puede observar ejecutar 160 mil  experimentos tomó cerca de 8 minutos (478.1 segundos), y los estadísticos permiten establecer que:

  • El % de copletado se encuentra entre 91.6 y 99.2 con media de 95.4%
  • El WIP entre 0.02 y 70.2 con media de 36.4 unidades
  • El tiempo de ciclo entre 112.2 y 1,077.4 con media de 613.8 minutos
  • El tiempo total de operación entre 12,823 y 13,998 con media de 13,395 minutos
  • La diferencia promedio de utilización de buffers entre 0.4% y 94.9% con media de 37.9%

Según se requiera se pueden crear experimentos específicos de optimización que arrojen la configuración indicada para por ejemplo minimizar el tiempo total de ciclo o minimizar el tiempo total de operación o minimizar el trabajo en proceso (otros post se dedicarán a la creación de experimentos de optimización).

A continuación explicaremos dos formas de realizar el muestreo de manera que el tiempo total de experimentación se reduzca.

Método Alternativo 1: Hipercubo usando R y AnyLogic

Creamos un hipercubo latino utilizando R y transferimos estos valores a AnyLogic para ejecutar específicamente simulaciones de estas configuraciones.

En primer lugar creamos un nuevo experimento de tipo variación de parámetros. Esta vez no asignamos variabilidad a los parámetros de entrada (ver imagen). Creamos la interfaz haciendo click en Create default UI.

parVarRImg4

Un inconveniente que tiene esta técnica es que la cantidad de experimentos (dimensiones del cubo) son definidas a través de la cantidad de réplicas (o usando la forma libre), en este caso escogemos un total de 2000 experimentos para representar el espacio total de 160,000 (representando un 1.25% del total de la población).

A continuación cargamos la librería RCaller y la importamos al experimento. Así mismo definimos las acciones a realizar antes y después de cada simulación pasar los parámetros y capturar las estadísticas (ver imágen siguiente).

parVarRImg5

Al igual que en la variación de parámetros, en este experimentos creamos cinco estadísticos y tres histogramas.

Adicionalmente creamos tres variables: totalExperimentos (int), dimensions (int) e hypercube (int[][]). Finalmente creamos una función llamada getHyperCube con el siguiente código:

Esta función se ejecuta al inicio de toda la serie de experimentos para crear el hipercubo en R (utilizando el paquete lhs) e importarlo a AnyLogic para almacenarlo en la variable local hypercube. Este hypercubo en realidad es una matriz donde cada fila representa la configuración de los buffer de cada experimento a correr.

parVarRImg6

Al ejecutar el experimento encontramos:

  • El tiempo total de simulación fue de tan solo 21 segundos (23 veces más rápido que el experimento original)
  • El % de copletado se encuentra entre 93.4 y 99.0 con media de 96.1%
  • El WIP entre 2 y 54 con media de 29 unidades
  • El tiempo de ciclo entre 138.6 y 867.59 con media de 511.9 minutos
  • El tiempo total de operación entre 13,061 y 13,947 con media de 13,508 minutos
  • La diferencia promedio de utilización de buffers entre 1.5% y 93.2% con media de 28.3%

Si bien las distribuciones no reflejan los mismos límites superiores e inferiores de la variación de parámetros anterior, los valores hallados se aproximan bastante, con un tiempo de simulación 23 veces inferior. Esta técnica es particularmente útil cuando se cuenta con capacidad limitada de computación y experimentos complejos donde el espectro completo puede tomar días enteros en ser simulado por tanto una muestra con resultados similares en menor tiempo es muy necesaria.

Método Alternativo 2: Segmentación

En este caso asumimos que solo deseamos simular las siguientes configuraciones:

  • Buffer 1: variando de 5 a 15 (step=1)
  • Buffer 2: solo puede ser 1, 5, 10 o 15
  • Buffer 3: siempre 5
  • Buffer 4: valores pares de 2 a 20

En este caso el total de experimentos a realizar es 440 (11*4*1*10).

Creamos entonces un experimento tipo variación de parámetros de forma libre con 440 repeticiones (ver imagen) y añadimos un archivo de Excel donde hemos creado previamente las 440 configuraciones.

parVarImg6

En las acciones antes y después creamos el siguiente código que permite leer el archivo de Excel y llenar la variable local hypercube con todas las configuraciones requeridas. Adicionalmente capturamos las estadísticas de rendimiento al finalizar cada experimento.

parVarImg7

Ejecutamos el experimento.

parVarImg8

Esta vez el experimento tomó solamente 2.3 segundos (sin repetición). El usuario puede repetir varias veces la matriz Excel y aumentar el número de experimentos en AnyLogic para añadir repeticiones.

El modelo soporte, la librería RCaller y el archivo Excel pueden ser descargados en el siguiente link.

Descarga

 

 

21 Jun

Cómo crear agentes con rangos de visión en AnyLogic

bulldozer

  • Contexto
  • Modelo
  • Video
  • Descarga

Con frecuencia se desea limitar el movimiento e iteración de los agentes a solo aquellos elementos que caen dentro un rango de visión limitado. Este modelo es una demostración de cómo se pueden crear rangos de visión a los agentes en un espacio determinado.

En este modelo se asumen agentes representando bulldozers esparcidos en un campo donde hay diferentes minas a las que los agentes deben trasladarse. Estos agentes solo pueden identificar las minas que se encuentran en el rango de visión establecido.

El modelo cuenta con dos tipos de agentes: MyAgents y Mine.

MyAgent representa el bulldozer cuya visión es limitada. La mina es el lugar donde el bulldozer debe desplazarse.

Los agentes estan contenidos en dos poblaciones: myAgents y mines, ambas inician vacías al comienzo del modelo mediante la función Setup. Esta crea los agentes, los ubica de manera aleatoria en el espacio y asigna parámetros. A continuación se presenta la función:

El usuario cuenta con diferentes botones donde puede seleccionar agentes, rotarlo y obtener los agentes dentro del rango de visión frente a él. Este rango de visión es determinado por el ángulo solamente (cualquier agente con un ángulo menor a una referencia predeterminada es aceptable. El usuario puede además incluir la distancia como parte del rango de visión, es decir no solo considerar las minas que estén dentro del ángulo de visión frente a el sino también dentro de una distancia determinada).

La selección del agente se realiza utilizando el siguiente código

El cálculo del ángulo y la distancia se hace en el siguiente código

Este código hace uso de dos funciones: getAngleTo y getDistanceTo. A continuación se presentan estas dos funciones:

 

Existen además botones para aumentar o reducir el ángulo de rotación de los bulldozers. El ángulo del campo de visión puede ser ajustado usando un slider. El código del slider se presenta a continuación:

El siguiente es un video del modelo en funcionamiento

El modelo en AnyLogic puede ser descargado en el siguiente Link

Comentario Final

Como se ha podido observar el modelo no pretende hacer más que reportar las minas frente al agente que están dentro de su campo de visión. El usuario puede agregar utilizar este código como base para agregar acciones más complejas como movimientos, ruteos e incluso algoritmos de decisión.

No olviden dejar su comentario!

14 May

Integrando AnyLogic y R: Gráfico de control

  • Intro
  • Modelo AnyLogic
  • Resultados
  • Qué hacer

Un concepto común en la ingeniería industrial es el control estadístico de procesos, el cuál consiste en la definición de un proceso a partir de rendimientos estándares de manera que el control de calidad de los productos no requiera de una precisa medición de cada unidad, sino de la revisión de los estadísticos del proceso. Si estos tuvieron alguna desviación frente a sus estándares (media y desviación típica), se sospecha que pueden haber fallas de calidad en los productos y solo entonces se procede a la revisión individual de los productos, lo que reduce sustancialmente los tiempos de ciclo en la producción (ver link).

Una herramienta fundamental para esto es el gráfico de control el cuál permite visualizar para una actividad o proceso específico, el histórico de tiempos de proceso en secuencia, de manera que se establezca el tiempo promedio y los límites superiores e inferiores del proceso. Estos límites marcan la frontera del control estadístico, así un ciclo cuyo tiempo esté por encima del límite superior o por debajo del inferior, se presume anómalo desde el punto de vista estadístico. Los administradores de procesos deciden entonces si se trata de un hecho puntual para una unidad atípica o si es una tendencia del proceso y por ende se requieren tomar medidas bien sea frente al lote de producción, al recurso (un operario fatigado o una máquina próxima a mantenimiento) o a la materia prima entre otras.

Los límites de control son usualmente definidos en función de la desviación estandar del proceso, en general tres desviaciones hacia arriba y hacia abajo son la norma, lo que entre otras es la base de la metodología six sigma.

El gráfico siguiente es una muestra de cómo luce un gráfico de control, donde se evidencia que los ciclos de 4:30 y 6:00 estan por encima del límite superior. Adicionalmente se evidencia que el proceso en general está aumentando su tiempo promedio de ciclo lo cuál puede ser debido a una fatiga del recurso y por tanto requiere de una acción preventiva.

qchart

En ocasiones los límites son controlados artificialmente para aumentar o reducir la variabilidad. Esto sucede cuando uno o varios componentes no son homogéneos o bien cuando se quieren fijar controles específicos (ejemplo reducir los límites a dos desviaciones estándares para los pedidos de un cliente específico o para los productos de exportación).

En este tutorial mostraremos cómo generar estos gráficos de manera automática en AnyLogic con la ayuda de R y cómo hacer uso de ellos para controlar un proceso.

El modelo a simular será una estación de trabajo con una fuente y una salida. El tiempo de procesamiento será una función que explicaremos mas adelante. Adicionalmente se requiere una imagen sin contenido, un dataset y combobox y dos sliders (ver imagen).

alscreenshot_qcc

Agregamos a la lista de dependencias del modelo la librería RCaller-2.5.jar

Rcaller_dependency

La siguiente es la función para controlar el tiempo de proceso tProc()

La cuál integramos en el servicio como tiempo de espera (ver imagen). Adicionalmente agregamos el código que permite actualizar el gráfico de control cada cierta cantidad de piezas procesadas (variable each)

delay_qcc

La función updateControlChart() conecta AnyLogic con el ejecutable de R (RScript), transmite datos y realiza operaciones, en este caso crea el gráfico de control, el cuál se guarda en una dirección temporal del ordenador. La dirección es usada para cambiar periódicamente la fuente del objeto imagen lo que actializa el gráfico de control.

Esta función permite además identificar las piezas cuyo tiempo están por encima de los límites de control (variable violations). Si hay al menos una pieza en esta categoría, el ID de la pieza y el tiempo de proceso pueden ser conocidos haciendo click en el botón "Defectos". Los límites de control también pueden ser fijados haciendo click en el combobox "Fijar Límites" y variando los sliders.

El siguiente es un video demostrando el modelo de simulación en funcionamiento.

Los archivos pueden descarcarse en el siguiente link.

Este modelo fue hecho usando AnyLogic 7.3.3 y Microsoft R Open V 3.2.4, sin embargo como se muestra en el video, es posible cambiar el origen de RScript para usar el script original de R.

Este modelo es solo una muestra de las posibles aplicaciones que se pueden hacer integrando AnyLogic y R, sin embargo R cuenta con una serie de paquetes especializados en muchos campos que permiten ampliar la gama de aplicaciones. Un ejemplor puede ser utiizar paquetes de análisis estadístico (ejemplo MASS, statmod) para identificar distribuciones de probabilidad atípicas y generar predicciones sobre tiempos de operación en las estaciones para mejorar la alocación de tareas, o aplicar minería de datos  (paquetes car y caret) para clasificar actividades según rendimiento, o incluso utilizar aprendizaje autónomo (machine learning) para predecir comportamientos que mejoren la programación y sequenciación (nnet, neuralnet, RSNNS, deepnet, darch).

También es posible utilizar librerías especializadas para diseñar gráficos más avanzados que los suministrados por AnyLigic (ggplot).

En el próximo post de esta serie se explicará un ejemplo aplicando minería de datos y aprendizaje autónomo en R para optimizar un proceso de mediana complejidad.

 

22 Feb

Libro: Simulación de Operaciones y Cadena de Abastecimiento con AnyLogic 7.2 (Prof. Dmitry Ivanov)

El profesor Dmitry Ivanov de la universidad Berlin School of Economics ha publicado recientemente un libro (aún en proceso) con tutoriales de modelos en AnyLogic dedicados a casos de producción y logística de grados MBA, Maestría y Doctorado en estudios relacionados con administración y gerencia de operaciones y logística.

Ivanov

Read More

%d bloggers like this: