Scielo RSS <![CDATA[Revista de Matemática Teoría y Aplicaciones]]> http://www.scielo.sa.cr/rss.php?pid=1409-243320130002&lang=pt vol. 20 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.sa.cr/img/en/fbpelogp.gif http://www.scielo.sa.cr <![CDATA[<b>Analysis of optimal control problems for the process of wastewater biological treatment</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200001&lng=pt&nrm=iso&tlng=pt We consider a three-dimensional deterministic control model of the process of aerobic wastewater biotreatment. For this model, we formulate and solve two optimal control problems, each of which has a corresponding minimizing functional. For the first problem, the functional is a weighted sum of the pollutant concentration at the end of a fixed time interval and the cumulative biomass concentration over the interval. For the second problem, the functional is a weighted sum of the pollutant concentration at the end of the time interval and the cumulative oxygen and biomass concentrations over the interval. In order to solve these problems, we apply the Pontryagin Maximum Principle. The switching functions are analytically investigated and uniquely determine the type of the optimal controls for the considered problems. Their properties allow the simplification of the optimal control problems to that of finitedimensional constrained minimization. Numerical solutions of the optimal control problems are also provided.<hr/>Consideramos un modelo de control determinístico tridimensional del proceso de biotratamiento aeróbico de aguas residuales. Para este modelo, formulamos y resolvemos dos problemas de control óptimo, cada uno de los cuales tiene un funcional a minimizar. Para el primer problema, el funcional es una suma ponderada de la concentración del contaminante al final de un intervalo de tiempo fijo y la concentración acumulada de la biomasa sobre el intervalo. Para el segundo problema, el funcional es una suma ponderada de la concentración del contaminante al final del intervalo de tiempo y las concentraciones acumuladas de oxígeno y biomasa sobre el intervalo. Para resolver estos problemas, aplicamos el Principio del Máximo de Pontryagin. Las funciones de conmutación son investigadas analíticamente y determinan unívocamente el tipo de controles óptimos para los problemas considerados. Sus propiedades permiten la simplificación de los problemas de control óptimo para una minimización finitodimensional con restricciones. Se brindan las soluciones numéricas de los problemas de control óptimo. <![CDATA[<b>Sensibility concept for the discrete case in the cost sharing problem</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200002&lng=pt&nrm=iso&tlng=pt Supongamos que se produce un vector en forma conjunta. El problema de reparto de costos es el como dividir el costo de producción de este vector entre sus componentes. En este artículo se caracteriza axiomáticamente una solución para este tipo de problemas basados en dos axiomas: s-sensibilidad y separabilidad. El axioma de s-sensibilidad establece como debe cambiar la solución cuando ocurren pequeños cambios en la función de costos y el axioma de separabilidad tiene la conotación tradiconal. Se estudia el caso discreto y se obtiene una solución de manera axiomática.<hr/>Suppose that a vector is produced jointly. We will consider the problem of dividing the cost of production among a group of components. In this paper we characterized a solution through two axioms, s-sensibility and separability. The sensibility is a concept related to the variations of a solution due to slight changes of the cost function and the separability is standard. We study the discrete cost sharing problem. We provide a axiomatic solution. <![CDATA[<b>New method for the analysis of images</b>: <b>the square wave method</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200003&lng=pt&nrm=iso&tlng=pt The Square Wave Method (SWM) - previously applied to the analysis of signals - has been generalized here, quite naturally and directly, for the analysis of images. Each image to be analyzed is subjected to a process of digitization so that it can be considered to be made up of pixels. A numeric value or “level” ranging from 0 to 255 (on a gray scale going from black to white) corresponds to each pixel. The analysis process described causes each image analyzed to be “decomposed” into a set of “components”. Each component consists of a certain train of square waves. The SWM makes it possible to determine these trains of square waves unambiguously. Each row and each column of the image analyzed can be obtained once again by adding all the trains of square waves corresponding to a particular row or to a particular column. In this article the entities analyzed were actually sub-images of a certain digitized image. Given that any sub-image of any image is also an image, it was feasible to apply the SWM for the analysis of all the sub-images.<hr/>El método de las ondas cuadradas -previamente aplicado al análisis de señales- es generalizado, de manera directa y natural, para el análisis de imágenes. Cada imagen a ser analizada es sometida, en primer lugar, a un proceso de digitalización que posibilita considerarla constituida por pixels. A cada uno de estos pixels le corresponde un valor numérico o “nivel”-desde 0 hasta 255- en una escala de grises que se extiende desde el negro al blanco. El proceso de análisis presentado conduce a la “descomposición” de cada imagen analizada en un conjunto de “componentes”. Cada componente consiste en cierto tren de ondas cuadradas. El método de las ondas cuadradas permite determinar, sin ambigüedad, cuáles son dichos trenes de ondas cuadradas. Cada fila, así como cada columna, de la imagen analizada puede ser reobtenida sumando todos los trenes de ondas cuadradas correspondientes a dicha fila o a dicha columna. En este trabajo, los entes sometidos a análisis fueron, en realidad, subimágenes de una cierta imagen digitalizada. Dado que cualquier subimagen de cualquier imagen es, también, una imagen, resultó factible aplicar el método de las ondas cuadradas para el análisis de todas las subimágenes. <![CDATA[<b>Symmetry orbits and their data-analytic properties</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200004&lng=pt&nrm=iso&tlng=pt The concept of data indexed by finite symmetry orbits is reviewed within the data-analytic framework of symmetry studies. Data decompositions are discussed in terms of canonical projections and Plancherel’s formulas, and interpreted in terms of orbit invariants.<hr/>Se revisa el concepto de datos indexados por órbitas simétricas finitas en el marco de estudios de simetría. Se discute la descomposición de datos en términos de proyecciones canónicas y fórmulas de Plancherel, e interpretada en términos de órbitas invariantes. <![CDATA[<b>Sea level rise and the geoid</b>: <b>factor analysis approach</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200005&lng=pt&nrm=iso&tlng=pt Sea levels are rising around the world, and this is a particular concern along most of the coasts of the United States. A 1989 EPA report shows that sea levels rose 5-6 inches more than the global average along the Mid-Atlantic and Gulf Coasts in the last century. The main reason for this is coastal land subsidence. This sea level rise is considered more as relative sea level rise than global sea level rise. Thus, instead of studying sea level rise globally, this paper describes a statistical approach by using factor analysis of regional sea level rates of change. Unlike physical models and semi-empirical models that attempt to approach how much and how fast sea levels are changing, this methodology allows for a discussion of the factor(s) that statistically affects sea level rates of change, and seeks patterns to explain spatial correlations.<hr/>Los niveles del mar crecen alrededor del mundo, y este es un problema que afecta a la mayoría de las costas en los Estados Unidos. Un reporte de 1989 de la Agencia de Protección Ambiental de los Estados Unidos (EPA, por sus siglas en inglés) muestra que el nivel del mar creció de 5 a 6 pulgadas más que el promedio global en el Atlántico Medio y la costa del Golfo en el siglo pasado. La principal razón para esto es el hundimiento de la tierra costera. Este crecimiento del nivel del mar es considerado más como uno relativo antes que global. Así, en lugar de estudiar el crecimiento global del nivel del mar, este artículo describe un enfoque estadístico usando análisis factorial del cambio en las razones del nivel del mar regional. Contrario a los modelos físicos o semiempíricos, que tratan de aproximar qué tanto y qué tan rápido cambian los niveles del mar, esta metodología permite una discusión de los factores que afectan estadísticamente las razones de cambio del nivel del mar, y busca patrones que expliquen correlaciones espaciales. <![CDATA[<b>An optimization algorithm inspired by musical composition in constrained optimization problems</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200006&lng=pt&nrm=iso&tlng=pt Many real-world problems can be expressed as an instance of the constrained nonlinear optimization problem (CNOP). This problem has a set of constraints specifies the feasible solution space. In the last years several algorithms have been proposed and developed for tackling CNOP. In this paper, we present a cultural algorithm for constrained optimization, which is an adaptation of “Musical Composition Method” or MCM, which was proposed in [33] by Mora et al. We evaluated and analyzed the performance of MCM on five test cases benchmark of the CNOP. Numerical results were compared to evolutionary algorithm based on homomorphous mapping [23], Artificial Immune System [9] and anti-culture population algorithm [39]. The experimental results demonstrate that MCM significantly improves the global performances of the other tested metaheuristics on same of benchmark functions.<hr/>Muchos de los problemas reales se pueden expresar como una instancia del problema de optimización no lineal con restricciones (CNOP). Este problema tiene un conjunto de restricciones, el cual especifica el espacio de soluciones factibles. En los últimos años se han propuesto y desarrollado varios algoritmos para resolver el CNOP. En este trabajo, se presenta un algoritmo cultural para optimización con restricciones, el cual es una adaptación del “Método de Composición Musical” o MCM, propuesto en [33] por Mora et al., para resolver instancias del CNOP. La adaptación propuesta del MCM se aplicó a cinco instancias de prueba del CNOP a fin de evaluar y analizar su comportamiento Los resultados experimentales del MCM se compararon con los resultados obtenidos por algoritmo evolutivo basado en homomorfismo [23] , Sistema Inmune Artificial [9] y el algoritmo de anti-cultural [39]. Los resultados experimentales muestran que el MCM genera resultados significativamente mejores que los obtenidos por las otras metaheurísticas probadas en algunos de los problemas de referencia. <![CDATA[<b>General guidelines solution for linear programming with fuzzy coefficients</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200007&lng=pt&nrm=iso&tlng=pt En este trabajo se introduce tanto a la Programación Posibilística como a la Programación Borrosa como paradigmas que permiten resolver problemas de optimización cuando los coeficientes del modelo de programación lineal o las restricciones del mismo se presentan como números borrosos, en lugar de números exactos (crisp, en inglés). Se presentan algunos ejemplos basados en [1].<hr/>This work introduce to the Possibilistic Programming and the Fuzzy Programming as paradigms that allow to resolve problems of linear programming when the coefficients of the model or the restrictions on the same are presented as fuzzy numbers, rather than exact numbers (crisp). This work presents some examples based on [1]. <![CDATA[<b>Tabu search algorithm for a variation of the coloring problem</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200008&lng=pt&nrm=iso&tlng=pt El problema de coloración robusta generalizado (PCRG) resuelve problemas de horarios que consideran restricciones especiales. Al ser una generalización del problema de coloración robusta, que es a su vez una generalización del problema de coloración, el PCRG es entonces un problema NP-Completo, por lo que es necesario utilizar métodos aproximados para encontrar buenas soluciones en un tiempo de cómputo razonable. En este trabajo se presenta un algoritmo de búsqueda tabú para programar casos de 30 a 180 horas por semana, para algunos de ellos encuentra la solución ´optima, en otros casos, la solución obtenida supera a la mejor solución conocida. También se presentan ejemplos de mayor tamaño a los conocidos, obteniendo resultados muy competitivos, lo que se puede verificar por la ausencia de conflicto entre clases.<hr/>The generalized robust coloring problem (GRCP) resolves timetabling problems that consider special constraints. As a generalization of the robust coloring problem, which is in turn a generalization of the coloring problem, the GRCP is then a NP-Complete problem, so it is necessary to use approximate methods to find good solutions in a reasonable computation time. This paper presents a tabu search algorithm to schedule cases from 30 to 180 hours per week, for some of them it found the optimal solution, in other cases, the solution obtained exceeds the best known solution. It also presents examples of greater size to the known, obtaining very competitive results, which can be verified by the absence of class conflict. <![CDATA[<b>Simulation models generator</b>: <b>Applications in scheduling</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200009&lng=pt&nrm=iso&tlng=pt El objetivo del presente trabajo es divulgar entre la comunidad académica un prototipo informático que genera automáticamente modelos de simulación de un sistema de producción industrial dado, en aras de facilitar el aprendizaje de algunosmodelos determinísticos y estocásticos de scheduling. La arquitectura básica del prototipo informático se desarrolló en términos de las capas de presentación, procesamiento y almacenamiento. A través de la capa de procesamiento el prototipo genera un modelo de simulación que se guarda en la capa de almacenamiento y que posteriormente puede ser corrido con el fin de probar diversos modelos de scheduling del sistema de producción. La teoría de scheduling ha originado diferentes alternativas para generar las mejores soluciones a problemas de programación de producción y se propone con el desarrollo de este software probar algunas de estas alternativas mediante simulación computarizada. Entre las ventajas que la simulación trae consigo está la posibilidad de evaluar el impacto que las decisiones tomadas tendrán, para así tener un acercamiento a la realidad que permita evaluar las decisiones con vistas a tomar la más asertiva. Para la prueba del prototipo se utilizó como ejemplo el modelamiento de un sistema de producción con 9 máquinas y 5 trabajos, según una configuración Job Shop, probando tiempos de procesamiento y paradas de máquinas estocásticos con el fin de medir tasas de utilización de máquinas y tiempo promedio de los trabajos en el sistema, como medidas de desempeño del sistema. Esta prueba muestra la bondad del prototipo, al ahorrarle al usuario la construcción del modelo de simulación.<hr/>The aim of this study is to disseminate the academic community a prototype computer that automatically generates simulation models of a given industrial production system, in order to facilitate the learning of some deterministic and stochastic scheduling. The basic architecture of the prototype computer developed in terms of presentation layers, processing and storage. Through the processing layer generates a prototype simulation model which is stored in the storage layer and subsequently can be run in order to test various models of production scheduling system. Scheduling theory has led to alternatives to generate the best solutions to problems of production scheduling and intends to develop this software to test some of these alternatives by computer simulation. Among the benefits that simulation brings is the ability to assess the impact that decisions will, in order to have an approach to reality to evaluate decisions in order to take more assertive. To test prototype was used as the modeling example of a production system with 9 machines and 5 works as a job shop configuration, testing stops processing times and stochastic machine to measure rates of use of machines and time average jobs in the system, as measures of system performance. This test shows the goodness of the prototype, to save the user the simulation model building <![CDATA[<b>Comparative analysis of the orbital structure for non-cuspy and cuspy triaxial models of galaxies using different expansions of the gravitational potential</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200010&lng=pt&nrm=iso&tlng=pt Un método para generar modelos de galaxias elípticas consiste en partir de un sistema de partículas con una configuración adecuada y seguir su evolución con un código de N-cuerpos hasta que alcanza el equilibrio. En trabajos anteriores hemos utilizado el código de L.A. Aguilar para generar modelos tanto no cuspidales como cuspidales, ofreciendo los segundos una mejor representación de las galaxias elípticas. Sin embargo, el método propuesto por Hernquist & Ostriker es más adecuado para los casos con cúspides centrales, puesto que utiliza una expansión del potencial en funciones radiales que ya tiene caracter cuspidal. Aquí consideramos dos modelos, uno no cuspidal y otro cuspidal, obtenidos con el método de Aguilar y cuyos potenciales ajustamos ahora con la expansión de Hernquist & Ostriker. Obtuvimos las ecuaciones variacionales correspondientes y las empleamos para determinar los exponentes de Lyapunov de ´orbitas ya estudiadas con el método de Aguilar y separar las caóticas. Las órbitas regulares las clasificamos mediante el análisis de sus frecuencias orbitales. Presentamos una comparación de los resultados obtenidos con los dos métodos para ambos tipos de órbitas.<hr/>One way to create models of elliptical galaxies is to start from a system of particles with a suitable distribution and to follow its evolution with an N-body code until it reaches equilibrium. In previous works we used the code of L.A. Aguilar to generate noncuspy and cuspy models, the latter giving a better representation of elliptical galaxies. However, the method proposed by Hernquist and Ostriker is more suitable for the cases with central cusps, because it uses an expansion of the potential in radial functions that already reflects the cuspy character. Here we consider two models, one non-cuspy and another cuspy, obtained with the method of Aguilar and whose potentials we now fit with the Hernquist and Ostriker expansion. We obtained the corresponding variational equations and we used them to determine the Lyapunov exponents of orbits already investigated with the method of Aguilar and to separate the chaotic ones. We classified the regular orbits through the analysis of their orbital frequencies. Here we present a comparison of the results obtained with the two methods for both types of orbits. <![CDATA[<b>Challenges for statistics teaching and teacher’s training in Mexico</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200011&lng=pt&nrm=iso&tlng=pt En este trabajo se trata la problemática que se tiene en la formación y actualización docente en la enseñanza de la Probabilidad y de la Estadística en la educación superior en México. Se aborda desde cuatro enfoques: a) la caracterización y formación de profesores que impulse el desarrollo e implementación de reformas en el currículo de la enseñanza de la Estadística; b) retos del profesor en la enseñanza de la Estadística universitaria; c) las nuevas reformas curriculares y de enfoque de la enseñanza de la Estadística que proponen el desarrollo de un aprendizaje basado en proyectos con el uso de software estadístico apropiado, y d) la innovación educativa como un cuerpo de conocimiento en desarrollo, mediante el cual se promueve la conformación de redes de profesores que favorezcan el surgimiento de innovaciones reales. A partir de estas perspectivas, se plantean los retos que enfrentan la enseñanza y formación de profesores de Estadística.<hr/>This work will cover the problems that are found in teacher training and professional development in Probability and Statistics in higher education in Mexico. It will be approached through four focuses: a) the characterization and training of teachers that drive the development and implementation of curriculum reforms in the teaching of Statistics; b) challenges of teachers in the instruction of university-level Statistics; c) new curricular reforms with respect to the instruction of Statistics that propose the development of a learning based in projects through the use of appropriate statistical software, and d) educational innovation as a body of knowledge in development, by which the shaping of networks consisting of professors who favor the emergence of real innovation is brought about. Starting from these perspectives, the challenges confronted in the teaching and training of Statistics professors will be proposed. <![CDATA[<b>Dice, sticks, pixels and bits</b>: <b>didactic alternatives to explore the methodology of monte carlo in a ludic tone</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332013000200012&lng=pt&nrm=iso&tlng=pt En este artículo se presentan estrategias didácticas en tono lúdico para explorar la metodología de Monte Carlo y se analizan las puestas en práctica realizadas en diversos escenarios educativos. Las propuestas elaboradas permiten poner en acción conceptos de probabilidad y estadística de un modo divertido y atrayente mediante la realización de “experimentos-juegos” cooperativos con objetos reales y virtuales. Cada estrategia está dirigida a profesores de escuelas secundarias y de institutos de formación docente, y también al ciclo básico de la Universidad, para que sea modificada, recreada y profundizada de acuerdo a las áreas específicas de aplicación.<hr/>This paper presents didactic strategies in a ludic tone to explore the methodology of Monte Carlo and analizes the implementations that have been performed in several educational scenarios. These proposals allow us to put into action concepts of probability and statistics in an amusing and attractive way by conducting cooperative “experiments-games” that are based on the use of real and virtual objects. Each strategy is aimed to teachers of high school and teacher training institutes, and also for early stages at University level, in order to be modified, recreated, and enhanced according to the specific areas of application.