Por favor, use este identificador para citar o enlazar este ítem:
https://ri.ujat.mx/handle/200.500.12107/6143
Título : | Control de líneas de espera con costo promedio |
metadata.dc.creator: | Dionicio Arévalo, Mirelda |
metadata.dc.creator.id: | 092A10001 |
Resumen : | En este trabajo se resuelve un problema de control de líneas de espera, con el criterio de costo promedio y con espacio numerable de estados a tiempo continuo; para lograr este objetivo se propone transformar dicho problema de control a un problema de control con espacio nito de estados a tiempo discreto, el cual se resolverá utilizando programación dinámica. Una línea de espera o cola se forma en sistemas que ofrecen servicios con cierta capacidad de atención, al llegar los clientes si el servidor no está disponible, y el cliente decide esperar, se forma dicha cola. La teoría de líneas de espera proporciona modelos para problemas interesantes, estos modelos se utilizan para la toma de decisiones que incluyen en los siguientes aspectos: tiempo de es pera total del sistema o en la cola, cantidad de clientes esperando en el sistema o en las colas y tiempo ocioso de los servidores. As, el interés no solo es modelar la cola sino controlarla. Para el control de colas se cuenta con la teoría de procesos de control es tocantico, cuyo interés más importante es encontrar la función de valores óptimos y la correspondiente política óptima. Este tipo de problemas se estudian en el contexto de la teoría de Procesos de Decisión de Markov (PDMs), donde los PDMs modelan problema de decisión secuencial en el cual un sistema evoluciona en el tiempo inCLuido por un controlador o decisor. Los PDMs consisten de un espacio de estados, de un espacio de acciones, de una familia de conjuntos de acciones admisibles, de una ley de transición y de una función de costo, junto con un índice de funcionamiento (también llamado criterio de optimalizad) mediante el cual se mide la respuesta del sistema a los controles aplicados. Este índice por lo general representa costos (o ganancias), as, el objetivo de un problema de decisión de Markov o problema de control, es encontrar políticas que minimicen el costo esperado (o maximicen la ganancia esperada) en el tiempo. La metodóloga para resolver el problema de interés es programación dinámica. Los métodos más utilizados en programación dinámica para PDMs son: (a) iteración de valores, (b) iteración de políticas. Para este trabajo se utilizara el método de iteración de valores. Para resolver el problema de control en PDMs a tiempo continuo se establece una equivalencia entre una Cadena de Decisión de Markov a Tiempo Discreto (CDMTD) y una Cadena de Decisión de Markov a Tiempo Continuo (CDMTC) a través del método de uniformización, el cual fue propuesto en [15] para resolver problemas de PDMs a tiempo continuo. La uniformización consiste en introducir una probabilidad, distinta de cero, de ir de un estado a el mismo; ya que en una CDMTC esta probabilidad es cero, as el problema se puede observar en periodos determinados de tiempo, es decir, a tiempo discreto. |
Fecha de publicación : | 1-sep-2014 |
metadata.dc.rights.license: | http://creativecommons.org/licenses/by-nc/4.0 |
URI : | https://ri.ujat.mx/handle/200.500.12107/6143 |
metadata.dc.language.iso: | spa |
Aparece en las colecciones: | Maestría en Ciencias en Matemáticas Aplicadas (PNPC) |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
Mirelda Dionicio Arévalo.pdf | 17,82 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.