Scielo RSS <![CDATA[Revista de Matemática Teoría y Aplicaciones]]> http://www.scielo.sa.cr/rss.php?pid=1409-243320110001&lang=pt vol. 18 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.sa.cr/img/en/fbpelogp.gif http://www.scielo.sa.cr <![CDATA[<b>Integral equations for the aggregate claim amount</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100001&lng=pt&nrm=iso&tlng=pt In the context of insurance mathematics, we study the renewal properties of the so-called aggregate claim amount for the non-discounted and the discounted case. For these models, we set integral equations for the distribution function. Additionally we mention how the integral equation may be used to find an approximation of the distribution.<hr/>En el ámbito de matemáticas actuariales, estudiamos las propiedades de renovación del llamado monto agregado de reclamaciones en los casos no-descontado y descontado. Se establecen ecuaciones integrales para la función de distribución de estos modelos. Adicionalmente mencionamos como usar estas ecuaciones integrales para encontrar aproximaciones numéricas de la distribución <![CDATA[<b>Regresión PLS y PCA como solución al problema de multicolinealidad en regresión múltiple</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100002&lng=pt&nrm=iso&tlng=pt Se presentan y comparan las técnicas de regresión por componentes principales y la regresión por componentes desde mínimos cuadrados parciales, como solución al problema de multicolinealidad en regresión múltiple. Se ilustran las metodologías con ejemplos de aplicación en la que se observa la superioridad de la técnica por mínimos cuadrados parciales.<hr/>We present and compare principal components regression and partial least squares regression, and their solution to the problem of multicollinearity. We illustrate the use of both techniques, and demonstrate the superiority of partial least squares. <![CDATA[<b>Curvas ROC y vecinos cercanos, propuesta de un nuevo algoritmo de condensación</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100003&lng=pt&nrm=iso&tlng=pt Los criterios k-NN son algoritmos no paramétricos de clasificación estadística. Son precisos, versátiles y libres de distirbución. Sin embargo su costo computacional puede ser demasiado alto; especialmente con tamaños de muestra grandes. Presentamos un nuevo algoritmo de condensación que, basado en el modelo Binormal para curvas ROC, permite transformar la base de entrenamiento en un conjunto pequeño de vectores de baja dimensíón. A diferencia de otras técnicas descritas en la literatura, nuestra propuesta permite controlar el intercambio de precisión por reducción de la base de entrenamiento. Un estudio de Monte Carlo muestra que el desempeño del método popuesto puede ser muy competente, superando en diversos escenarios realistas al de otros métodos frecuentemente utilizados.<hr/>k-NN criteria are non parametric methods of statistical classificaction. They are accurate, versatile and distribution free. However, their computational cost may be too expensive; especially for large sample sizes. We present a new condensation algorithm based on the Binormal model for ROC curves. It transforms the training sample into a small set of low dimensional vetors. Contrasting with other condensation techniques described in the literature, our proposal helps to control the exchange of accuracy for condensation on the training sample. The results of a Monte Carlo study show that its performance can be very competitive in different realistic scenarios, resulting in better training samples than other frequently used methods. <![CDATA[<b>Fuzzy regression vs. ordinary least squares regression</b>: <b>case study</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100004&lng=pt&nrm=iso&tlng=pt El objetivo del trabajo es presentar la técnica de regresión borrosa y mostrar su aplicación con un ejemplo práctico, para tal propósito, se comparará la ejecución de las técnicas tanto de regresión usual así como la de algunos modelos de regresión borrosa para el estudio del íconfianza del consumidor usada como variable respuesta respecto de la cotización del dólar considerada como variable independiente. Se proporciona una pequeña introducción a las diferentes metodologías utilizadas. Se reportan los resultados obtenidos de los algoritmos de regresión: el usual por mínimos cuadrados ordinarios y 2 de regresión borrosa. Para todos los casos, se reportan las instancias generadas con los datos históricos oficiales y se realiza la comparación entre estos. Finalmente se reporta los resultados numéricos obtenidos por los diferentes métodos.<hr/>The objective of this paper is to disseminate the technique of fuzzy regression and to give a practical example of its use. To this end, classical regression is compared to several fuzzy regression models on a problem concerning the consumer confidence index with respect to the dollar rate, the latter taken as the independent variable. A brief introduction is given to each of the different methodologies employed. The results obtained using the regression algorithms, one with ordinary least squares and another two with fuzzy regression, are presented. The instances generated using the official historical data for the problem are given and the numerical results obtained with the regression methods are reported. <![CDATA[<b>Heuristics for solving the multiple problem Identification of the responses of brain and artificial neural networks in the presence of usual and unusual stimuli by means of kalman-type filters</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100005&lng=pt&nrm=iso&tlng=pt Consideramos el problema de la obtención de información acerca del reconocimiento de incongruencias con patrones lógicos ya impresos de una subred de una red neuronal, ya sea cerebral, o diseñada artificialmente, mediante la medición de los potenciales evocados (PE) cerebrales. Uno de los objetivos ulteriores, es la detección de inconsistencias lógicas del discurso, no puramente semánticas, sino del reconocimiento de frases no coherentes con una línea de relato. La posibilidad del uso, con este fin, de PE obtenidos de electrodos ubicados superficialmente sobre el cuero cabelludo sería interesante: serían obtenidas conclusiones relevantes a partir de un método no-invasivo y mediante un equipamiento que es relativamente económico, de fácil transporte e instalación. La alternativa que proponemos es la utilización de filtros tipo Kalman (con necesarias modificaciones). La idea es tratar a la respuesta evocada como una variable no accesible, con una relación (no lineal, pero localmente linealizable) respecto de la variable mensurable. Estudiamos, como ejemplo guía, la evolución de una variable que mide, en una red neuronal de atractores tipo Hopfield, el ajuste entre el estado de una subred asociada al reconocimiento de ciertos patrones, luego de una cantidad prefijada de iteraciones.<hr/>We consider the problem of obtaining information about the recognition of logical inconsistencies with already imprinted patterns of a subnetwork of a neural network, both cerebral and artificially designed, by means of the measurement of the event related potentials (ERP). One of the subsequent aims, it is the detection of logical inconsistencies of the speech, not purely semantic, but of the recognition of not coherent phrases with a story line. The possibility of the use, with this goal, of ERP obtained of superficially located electrodes on the scalp would be interesting: relevant conclusions would be obtained from a non-invasive method and by means of equipment that is relatively economic, easily transportable and installable. The alternative that we propose is the utilization of Kalman type filters (with necessary modifications). The idea is to deal with the evoked response as a not accessible variable, with a relation (non linear, but locally linealizable) respect to the measurable variable. We study, as guide example, the evolution of a variable that measures, in a neural network of type Hopfield attractors, the adjustment between the conditions of a subnetwork associated with the recognition of some patterns, after a quantity prearranged of iterations. <![CDATA[<b>Creation of a model of pollutans diffusion in soil-water system using a cellular automata</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100006&lng=pt&nrm=iso&tlng=pt En este trabajo se presenta el desarrollo de un modelo de difusión de contaminantes en un sistema suelo-agua bajo condiciones específicas de un medio real en estudio. El propósito de dicho modelo es permitir la observación del flujo del contaminante en el sistema suelo-agua y su comportamiento al interactuar con los diferentes elementos del sistema con la finalidad de orientar y apoyar los procesos y la aplicación de las técnicas de recuperación de suelos y aguas contaminadas. Las condiciones básicas para el diseño del modelo son: 1) El contaminante es introducido en el suelo. 2) El contaminante fluye del suelo al agua. 3) La concentración del contaminante introducido es variable durante el proceso. 4) El contaminante puede llegar a saturar el suelo. 5) El contaminante es adsorbido por el suelo. 6) El modelo se realiza en 2D, con posibilidad de extenderlo a 3D. El modelo utiliza un autómata celular, el cual contiene diferentes zonas con sus propias reglas de funcionamiento. Se consideran cuatro zonas en el modelo: i) Zona de introducción del contaminante. ii) Zona del suelo (un medio poroso). iii) Zona de interrelación del suelo-agua. iv) Zona del agua.<hr/>In this paper is presented a developed model for a pollutant diffusion in a soil-water system, for specific conditions in a real study area. A model that allows the observations of the pollutant flow in the soil-water system and its behavior and interaction with the different system elements, is searched with the purpose of orientate and support the processes and techniques application for the pollutant soil and water remediation. The basic model conditions are: 1) The pollutant is introduced to the soil. 2) The pollutant flows from the soil to the water. 3) The introduced pollutant concentration is variable during the process. 4) The pollutant may saturate the soil. 5) The pollutant is adsorbed by the soil. 6) The model is developed in 2D, with the possibility to be expanded to 3D. The model uses a cellular automata that contains different zones with their own function rules. There are four considerate zones: i) Introduction of the pollutant zone. ii) Soil zone (a porous media). iii) Soil-water interaction zone. iv) Water zone. <![CDATA[<b>Optimal control of pollution stock through ecological interaction of the manufacturer and the state</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100007&lng=pt&nrm=iso&tlng=pt A model of an interaction between a manufacturer and the state where the manufacturer produces a single product and the state controls the level of pollution is created and investigated. A local economy with a stock pollution problem that must choose between productive and environmental investments (control functions) is considered. The model is described by a nonlinear system of two differential equations with two bounded controls. The best optimal strategy is found analytically with the use of the Pontryagin Maximum Principle and Green’s Theorem.<hr/>Se ha creado e investigado un modelo de interaccin entre un fabricante y el estado donde el fabricante produce un solo producto y el estado controla el nivel de contaminación. Se considera una economía local con un problema de contaminación almacenada, que debe escoger entre inversiones en producción y medio ambiente (funciones de control). El modelo es descrito por un sistema de dos ecuaciones diferenciales con dos controles acotados. La mejor estrategia de control se encuentra analíticamente usando el Principio del Máximo de Pontryagin y el Teorema de Green. <![CDATA[<b>A non-standard generating function for continuous dual q-hahn polynomials</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100008&lng=pt&nrm=iso&tlng=pt We study a non-standard form of generating function for the three-parameter continuous dual q-Hahn polynomials p n(x; a, b, c | q), which has surfaced in a recent work of the present authors on the construction of lifting q-difference operators in the Askey scheme of basic hypergeometric polynomials. We show that the resulting generating function identity for the continuous dual q-Hahn polynomials p n(x; a, b, c | q) can be explicitly stated in terms of Jackson’s q-exponential functions eq(z).<hr/>Estudiamos una forma no estándar de la función generatriz para una familia de polinomios duales continuos q-Hahn de tres parámetros p n( x; a, b, c | q ), que han surgido en un trabajo reciente de los autores en la construcción de operadores elevadores en q-diferencias del esquema de Askey de polinomios básicos hipergeométricos. Demostramos que la función generatriz identidad resultante para los polinomios q-Hahn duales continuos p n(x; a, b, c | q) puede ser expresada explícitamente en términos de las funciones q-exponenciales de Jackson eq(z). <![CDATA[<b>Heuristic for solving the multiple alignment sequence problem</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100009&lng=pt&nrm=iso&tlng=pt En el presente trabajo se desarrolló un nuevo algoritmo para resolver el problema de alineamiento múltiple de secuencias (AMS) que es un híbrido basado en las metaheurísticas de búsqueda de armonía (HS) y recocido simulado (RS). Éste fue validado con la metodología de Julie Thompson. Es un algoritmo básico y los resultados obtenidos durante esta etapa son alentadores.<hr/>In this paper we developed a new algorithm for solving the problem of multiple sequence alignment (AMS), which is a hybrid metaheuristic based on harmony search and simulated annealing. The hybrid was validated with the methodology of Julie Thompson. This is a basic algorithm and and results obtained during this stage are encouraging. <![CDATA[<b>Heuristics for the robust coloring problem</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100010&lng=pt&nrm=iso&tlng=pt Let G and Ḡ be complementary graphs. Given a penalty function defined on the edges of Ḡ, we will say that the rigidity of a k-coloring of G is the sum of the penalties of the edges of Ḡ joining vertices of the same color. Based on the previous definition, the Robust Coloring Problem (RCP) is stated as the search of the minimum rigidity kcoloring. In this work a comparison of heuristics based on simulated annealing, GRASP and scatter search is presented. These are the best results for the RCP that have been obtained.<hr/>Sean G y Ḡ dos grafos complementarios. Dada una función de penalización en las aristas de Ḡ, la rigidez de una k-coloración de G se define como la suma de las penalizaciones en las aristas de Ḡ cuyos vértices incidentes son del mismo color. Con base en la definición anterior, el Problema de Coloración Robusta (PCR) se define como la búsqueda de la k-coloración de rigidez mínima. Este trabajo realiza un estudio comparativo de varias técnicas heurísticas: Recocido Simulado, GRASP, y Búsqueda Dispersa. Los resultados aquí presentados son los mejores obtenidos para el PCR. <![CDATA[<b>Minimal reducts with GRASP</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100011&lng=pt&nrm=iso&tlng=pt La detección adecuada del nivel de demencia de un paciente es importante para brindar el tratamiento adecuado. El diagnóstico se basa en ciertos criterios, reflejados en los exámenes clínicos. De estos exámenes surgen las limitaciones y el grado en que se encuentra cada una de ellas en los pacientes. Para reducir el total de limitaciones a ser evaluadas, utilizamos la teoría de Conjuntos Imprecisos, esta teoría ha sido aplicada en áreas de la inteligencia artificial tales como análisis de decisiones, sistemas expertos, descubrimiento de conocimiento, clasificación con múltiples atributos. En nuestro caso se aplica para encontrar el conjunto mínimo de limitaciones o reducto que genera la misma clasificación que considerando todas las limitaciones, para ello se desarrollo un algoritmo GRASP (Greedy Randomized Adaptive Search Procedure).<hr/>The proper detection of patient level of dementia is important to offer the suitable treatment. The diagnosis is based on certain criteria, reflected in the clinical examinations. From these examinations emerge the limitations and the degree in which each patient is in. In order to reduce the total of limitations to be evaluated, we used the rough set theory, this theory has been applied in areas of the artificial intelligence such as decision analysis, expert systems, knowledge discovery, classification with multiple attributes. In our case this theory is applied to find the minimal limitations set or reduct that generate the same classification that considering all the limitations, to fulfill this purpose we development an algorithm GRASP (Greedy Randomized Adaptive Search Procedure). <![CDATA[<b>The decreasing digits and the a, b, c model</b>: <b>a proposal for handling populations in shelters</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100012&lng=pt&nrm=iso&tlng=pt Ocurrida una catástrofe, parte de la población impactada debe desplazarse desde sus hogares, hacia refugios o albergues. Para garantizar los servicios esenciales en el albergue, es necesario conocer el tamaño de la población que en él permanece, sabiendo que será un número aleatorio y que responde principalmente a las tasas de llegada y partida de las personas. Dado que las llegadas y salidas se pueden visualizar como un proceso de nacimiento y muerte, se ha pensado emular esta situación haciendo uso de las secuencias que se derivan de dos conceptos muy sencillos: los Dígitos decrecientes y el Modelo A, B, C. El aporte de este trabajo se traduce en objetivo del mismo: Mostrar como se puede hacer uso de las secuencias derivadas del Modelo A, B, C y los Dígitos decrecientes, para obtener estimados de la población que permanece en un albergue, como consecuencia de una catástrofe.<hr/>Happened a catastrophe, some one of the impacted population should their move from its homes, toward refuges or shelters. To guarantee the essential services in the shelter, it is necessary to know the population size that remain in it, knowing that it will be a random number and that it responds mainly to rate the arrival and departure people. Since the arrivals and exits can be visualized as birth and dead process, it has been planned to emulate this situation making use of the sequences that are derived of two very simple concepts: The Decreasing digits (Dd) and the A, B, C model. The contribution of this work is their objective: To show like one can make use of the derived expressions of the A, B, C model and the decreasing digits, to obtain a population estimation that remains in a shelter, as consequence of a catastrophe. <![CDATA[<b>Personnel selection based on fuzzy methods</b>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332011000100013&lng=pt&nrm=iso&tlng=pt The decisions of managers regarding the selection of staff strongly determine the success of the company. A correct choice of employees is a source of competitive advantage. We propose a fuzzy method for staff selection, based on competence management and the comparison with the valuation that the company considers the best in each competence (ideal candidate). Our method is based on the Hamming distance and a Matching Level Index. The algorithms, implemented in the software StaffDesigner, allow us to rank the candidates, even when the competences of the ideal candidate have been evaluated only in part. Our approach is applied in a numerical example.<hr/>Las decisiones de los directivos en cuanto a la selección de personal determinan en gran medida el éxito de la empresa. Una elección adecuada de los empleados proporciona una ventaja comparativa. Proponemos un método borroso para la selección de personal basado en la gestión de competencias y la comparación con la valoración que la empresa considera más adecuada para cada trabajo (el candidato ideal). Nuestro método utiliza la distancia de Hamming y el Matching Level Index. Los algoritmos, implementados con el software StaffDesigner, nos permite establecer un ranking de candidatos, incluso cuando las competencias del candidato ideal han sido evaluadas tan solo en parte. Nuestro enfoque está aplicado en un ejemplo numérico.