Scielo RSS <![CDATA[Revista de Matemática Teoría y Aplicaciones]]> http://www.scielo.sa.cr/rss.php?pid=1409-243320160001&lang=en vol. 23 num. 1 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.sa.cr/img/en/fbpelogp.gif http://www.scielo.sa.cr <![CDATA[<em>Tychonoff and connected products theorems are equivalent</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100001&lng=en&nrm=iso&tlng=en ResumenEn Topología, el teorema de Tychonoff garantiza la equivalencia entre el hecho de que un producto de espacios topológicos sean compactos y la compacidad de cada uno de los factores, mientras que el teorema de los productos conexos hace lo propio en el caso de la conexidad. En el presente trabajo se demuestra la equivalencia de ambos resultados topológicos.<hr/>AbstractIn Topology, Tychonoff's theorem asserts that the compactness of a product of topological spaces and compactness of each of its factors are equivalent facts. Analogously, the connected products theorem does the same about connectedness. This note is devoted to prove the equivalence between thes two topological results. <![CDATA[<em>Decision problems and recursiveness in formal logic systems</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100011&lng=en&nrm=iso&tlng=en ResumenEn la teoría de la recursión se dice que un problema de decisión es recursivamente resoluble si existe un procedimiento mecánico para resolverlo. Dentro del contexto de las lógicas formales, el problema de decisión consiste simplemente en determinar si una fórmula bien formada cualquiera del sistema es, o no es, un teorema.En este trabajo se analizan, entre otros asuntos, primeramente el famoso problema de decisión de la lógica canónica de primer orden F0 (también llamado Entscheidungsproblem) desde una perspectiva moderna. Luego se estudian los problemas de decisión de las lógicas proposicionales parciales. Se aprovecha el desarrollo alcanzado por la teoría de la recursión y de los sistemas productivos semi-Thue, luego de los trabajos de Post y Kleene en los años 40's y de Davis en la década de los 70's, entre otros, para explicar una solución a estos problemas de decisión.<hr/>AbstractThe recursion theory states that a decision problem is recursively solvable if there is a mechanical process to solve it. Within the context of formal logic, the decision problem consist to determine whether any wellformed formula of the system is a theorem or not.This paper first discusses, among other things, the famous problem of decision of the canonical first-order logic F0 (also called Entscheidungsproblem) from a modern perspective. Then we study the decision problem of the partial propositional logics. It exploits the development achieved by recursion theory and semi-Thue production systems after the work of Post and Kleene in the 40's and Davis in the early 70's, among others, to explain a solution to these decision problems. <![CDATA[Magnetohydrodynamic equations (MHD) generation code]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100041&lng=en&nrm=iso&tlng=en AbstractA program to generate codes in Fortran and C of the full magnetohydrodynamic equations is shown. The program uses the free computer algebra system software REDUCE. This software has a package called EXCALC, which is an exterior calculus program. The advantage of this program is that it can be modified to include another complex metric or spacetime. The output of this program is modified by means of a LINUX script which creates a new REDUCE program to manipulate the magnetohydrodynamic equations to obtain a code that can be used as a seed for a magnetohydrodynamic code for numerical applications. As an example, we present part of the output of our programs for Cartesian coordinates and how to do the discretization.<hr/>ResumenSe presenta un programa para generar códigos en Fortran y C de las ecuaciones magnetohidrodinámicas. El programa utiliza el software libre de álgebra computacional REDUCE. Este software tiene un paquete llamado EXCALC, que es un programa de cálculo exterior. La ventaja de este programa es que puede ser modificado para incluir otra métrica compleja o espacio-tiempo complejo. La salida de este programa es modificada por medio de una secuencia de comandos LINUX que crea un nuevo programa en REDUCE para manipular las ecuaciones magnetohidrodinámicas para obtener un código que puede ser utilizado como una semilla para un código de magnetohidrodinámica para aplicaciones numéricas. A modo de ejemplo, se presenta parte de la salida de nuestros programas en coordenadas cartesianas y como hacer la discretización. <![CDATA[<em>Analytical solution of the k-th order autonomous ordinary differential equation</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100063&lng=en&nrm=iso&tlng=en ResumenEl objetivo principal de este trabajo es hallar la solución analítica de la ecuación autónoma y(k) = f (y) y demostrar su convergencia usando polinomios autónomos de orden k, definidos aquí, además de la fórmula de Faá di Bruno para composición de funciones y polinomios de Bell. Los polinomios autónomos de orden k están definidos en término de los valores de frontera de la ecuación. Además valores especiales de los polinomios autónomos de orden 1 son dados.<hr/>AbstractThe main objective of this paper is to find the analytical solution of the autonomous equation y(k) = f (y) and prove its convergence using autonomous polynomials of order k, define here in addition of the formula of Faá di Bruno for composition of functions and Bell polynomials. Autonomous polynomials of order k are defined in terms of the boundary values of the equation. Also special values of autonomous polynomials of order 1 are given. <![CDATA[A new method for the analysis of signals: the square wave transform (SWT)]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100085&lng=en&nrm=iso&tlng=en AbstractThe results obtained by analyzing signals with the Square Wave Method (SWM) introduced previously can be presented in the frequency domain clearly and precisely by using the Square Wave Transform (SWT) described here. As an example, the SWT is used to analyze a sequence of samples (that is, of measured values) taken from an electroencephalographic recording. A computational tool, available at www.appliedmathgroup.org/, has been developed and may be used to obtain automatically the SWTs of sequences of samples taken from registers of interest for biomedical purposes, such as those of an EEG or an ECG.<hr/>ResumenLos resultados obtenidos al analizar señales con el Método de las Ondas Cuadradas (Square Wave Method, SWM) -previamente introducido- pueden ser presentados en el dominio de la frecuencia de manera clara, precisa y concisa mediante el uso de la Transformada de las Ondas Cuadradas (Square Wave Transform, SWT). Se caracteriza la SWT y, como ejemplo, se la utiliza para analizar una secuencia de muestras (es decir, de valores medidos) tomadas de un registro electroencefalográfico. En www. appliedmathgroup.org, se encuentra disponible un recurso computacional que posibilita obtener, de manera automatizada, las SWT de secuencias de muestras tomadas de registros de interés biomédico como el EEG y el ECG, entre otros. <![CDATA[SC: a novel fuzzy criterion for solving engineering and constrained optimization problems]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100111&lng=en&nrm=iso&tlng=en AbstractIn this paper a novel fuzzy convergence system (SC) and its fundamentals are presented. The model was implemented on a monoobjetive PSO algorithm with three phases: 1) Stabilization, 2) generation and breadthfirst search, and 3) generation and depth-first. The system SC-PSO-3P was tested with several benchmark engineering problems and with several CEC2006 problems. The computing experience and comparison with previously reported results is presented. In some cases the results reported in the literature are improved.<hr/>ResumenEn este trabajo se presenta un novedoso sistema de convergencia (SC), sus fundamentos y la experiencia computacional. Se implementó en un algoritmo PSO monoobjetivo de tres fases: Estabilización, generación y búsqueda en amplitud, generación y búsqueda a profundidad, el cual se probó con diversos problemas benchmark tanto de ingeniería como de la serie CEC2006. La experiencia computacional y la comparación con resultados previamente reportados se presenta. En algunos casos, se mejoran los resultados de la literatura. <![CDATA[<em>Controlled condensation in k-NN and its application for real time color identification</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100143&lng=en&nrm=iso&tlng=en ResumenLos algoritmos de vecinos cercanos (k-NN) son métodos ampliamente empleados en la clasificación estadística. Los cuales destacan por ser precisos y por no depender de ningún supuesto distribucional. A pesar de estas ventajas tienen el inconveniente de implicar un alto costo computacional. Conseguir formas eficientes de implementarlos es un reto importante para el desarrollo del reconocimiento de patrones. En este trabajo se discute una versión mejorada del algoritmo k-NN Condensación Controlada y se analiza su potencial en la identificación de color en tiempo real. Se basa en la representación de datos de entrenamiento en función de un conjunto reducido de prototipos informativos. Incluye dos parámetros que controlan el balance entre rapidez y precisión. Esto permite definir el porcentaje de condensación sin sacrificar demasiado la precisión del algoritmo. Probamos nuestra propuesta en un problema de clasificación instantánea en imágenes de video. Logramos la identificación de color en tiempo real mediante el algoritmo k-NN Condensación Controlada ejecutado con técnicas de programación multihilos. Los resultados obtenidos hasta el momento son alentadores.<hr/>Abstractk-NN algorithms are frequently used in statistical classification. They are accurate and distribution free. Despite these advantages, k-NN algorithms imply a high computational cost. To find efficient ways to implement them is an important challenge in pattern recognition. In this article, an improved version of the k-NN Controlled Condensation algorithm is introduced. Its potential for instantaneous color identification in real time is also analyzed. This algorithm is based on the representation of data in terms of a reduced set of informative prototypes. It includes two parameters to control the balance between speed and precision. This gives us the opportunity to achieve a convenient percentage of condensation without incurring in an important loss of accuracy. We test our proposal in an instantaneous color identification exercise in video images. We achieve the real time identification by using k-NN Controlled Condensation executed through multi-threading programming methods. The results are encouraging. <![CDATA[Combining neural networks andgeostatistics for landslide hazardassessment of San Salvador metropolitan area, El Salvador]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100155&lng=en&nrm=iso&tlng=en AbstractThis contribution describes the creation of a landslide hazard assessment model for San Salvador, a department in El Salvador. The analysis started with an aerial photointerpretation from Ministry of Environment and Natural Resources of El Salvador (MARN Spanish acronym), where 4792 landslides were identified and georeferenced along with 7 conditioning factors including: geomorphology, geology, rainfall intensity, peak ground acceleration, slope angle, distance to road, and distance to geological fault. Artificial Neural Networks (ANN) were utilized to assess the susceptibility to landslides, achieving results where more than 80% of landslide were properly classified using in-sample and out of sample criteria. Logistic regression was used as base of comparison. Logistic regression obtained a lower performance. To complete the analysis we have performed interpolation of the points using the kriging method from geostatistical approach. Finally, the results show that is possible to derive a landslide hazard map, making use of a combination of ANNs and geostatistical techniques, thus the present study can help landslide mitigation in El Salvador.<hr/>ResumenEsta contribución describe la creación de un modelo de evaluación de deslizamiento de tierra para el Área Metropolitana de San Salvador, departamento de El Salvador. El análisis inició con la obtención de una foto aérea del Ministerio de Medio Ambiente y Recursos Naturales (MARN) en donde 4792 deslizamientos fueron identificados y georeferrenciados junto con 7 factores condicionantes incluyendo: geomorfología, geología, precipitaciones máximas, aceleraciones sísmicas, pendiente del terreno, distancia a carretera y falla geológica. Redes Neuronales Artificiales (RNA) fueron utilizadas para la evaluación de la susceptibilidad a deslizamiento de tierra, logrando que más del 80% de deslizamientos fueran apropiadamente clasificados usando un criterio dentro y fuera de la muestra con la que se estimaron los parámetros del modelo. Regresión Logística fue usada como base de comparación, obteniendo este modelo un rendimiento inferior. Para completar el análisis se realizó la interpolación de puntos usando el método kriging proveniente del enfoque geoestadístico. Finalmente, los resultados muestran que es posible obtener un mapa de riesgo a deslizamiento de tierra, haciendo uso de una combinación de RNA y técnicas geoestadísticas con lo cual la presente investigación puede ayudar a la mitigación de deslizamientos de tierra en El Salvador. <![CDATA[<em>The regression logistics model in case the response variable assumes one of three levels: estimations, proof of hypothesis and model selection</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100173&lng=en&nrm=iso&tlng=en ResumenEste tratado sigue el siguiente esquema: se presenta, primero el vector score y la matriz de información de los modelos logístico y saturado multinomial con tres posibles niveles de respuesta a partir de la primera y segunda derivada de la función de verosimilitud respecto a los parámetros de los modelos; las relaciones entre el vector score y la matriz de información; la estandarización multivariante de las variables de entrada de cada modelo; las respectivas distribuciones asintóticas; las pruebas de comparación y selección de modelos que abarcan para la variable politómica con tres niveles los modelos logístico y saturado, logístico y submodelo, logístico con el modelo nulo, y logístico con el submodelo de una variable explicativa menos.<hr/>AbstractThis approach follows the following scheme: first, the vector score and the information matrix from the logistics models and saturated multinomials with three possible response levels starting from the first and second derivative of the function of likelihood with respect to the parameters of the models; the relationship between the vector score and the information matrix; the multivariant standardization of the entry variables of each model; the respective asymptotic distributions; proof of comparisons and model selections that include the polytomic variable with three levels, logistic logistical and saturated models, logistical and submodel, logistical with null model, and logistical with the submodel of a less explanatory variable. <![CDATA[An alternative to classical latent class models selection methods for sparse binary data: an illustration with simulated data]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100199&lng=en&nrm=iso&tlng=en AbstractWithin the context of a latent class model with manifest binary variables, we propose an alternative method that solves the problem of estimating empirical distribution with sparse contingency tables and the chisquare approximation for goodness-of-fit will not be valid. We analyze sparse binary data, where there are many response patterns with very small expected frequencies in several data sets varying in degree of sparseness from 1 to 5 defined d = n/2p = n/R is a factor that is mentioned in almost all prior literature as being an important determinant of how well the distribution is represented by the chi-squared.The proposed approach produced results that were valid and reliable under the mentioned problematic data conditions. Results from the proposal presented compare the rates of Type I for traditional goodness-of-fit tests. We also show that with data density d ≤ 5, Pearson's statistic should not be used to select latent class models using the Patterns Method, given that this has the probability of Type I error being greater than 5%. By comparing the Patterns Method and the Parametric Bootstrap for data density d = 2, we show that the Patterns Method has more accurate Type I error probabilities since the likelihood ratio, Read-Cressie and Freeman-Tukey statistics afford values of α&lt;0.05. In contrast, the Parametric Bootstrap provides values in these statistics that surpass 5%.<hr/>ResumenEn el contexto de modelos de clases latentes con variables manifiestas binarias, se propone un método alternativo para resolver el problema de la estimación de la distribución empírica con tablas de contingencias escasas, donde la aproximación de los estadísticos de bondad de ajuste por la distribución Chi-Cuadrada no es válida. Se analiza datos binarios escasos, donde muchos patrones de respuesta que tienen frecuencias esperadas pequeñas, en conjuntos de datos con grados de datos escasos de 1 a 5, donde d = n/2p = n/R es un factor es mencionado en la literatura como determinante de la bondad de ajuste a la distribución Chi-Cuadrada. La propuesta presenta resultados válidos y confiables en las condiciones de los datos mencionadas. Para los resultados se presenta tasas de error tipo I para las pruebas tradiciones de bondad de ajuste. También se muestra que para niveles de densidad de datos d ≤ 5, el estadístico Pearson no es el apropiado para seleccionar modelos de clases latentes utilizando el Método de Patrones, dado que presenta probabilidad de error de tipo I más grandes que 5%. Al comparar el Método de Patrones y el Bootstrap Paramétrico para la densidad d = 2, se muestra que el Método de Patrones tiene probabilidades de error de tipo I menores de 5% en los estadísticos de razón de verosimilitud, Read-Cressie y Freeman-Tukey. En contraste, el Bootstrap Paramétrico produce valores en estos estadísticos que superan un 5%. <![CDATA[<em>A bioinspired proposal based onneighborhoods for partitioning</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100221&lng=en&nrm=iso&tlng=en ResumenUna de las principales fuentes de inspiración para proponer nuevos paradigmas computacionales ha sido la observación de la naturaleza. Diversas técnicas en inteligencia artificial han surgido de esta manera.Uno de los esfuerzos que ha causado gran impacto es imitar la manera en que sobreviven otros seres vivos, y en particular, el estudio del funcionamiento cerebral es útil para proponer esquemas análogos y dar solución a algunos problemas. En este punto, los sistemas bioinspirados han surgido como un conjunto de modelos que están basados en el comportamiento y la forma de actuar de ciertos sistemas biológicos, los cuales pueden verse en áreas como la minería de datos e investigación de operaciones donde se distingue el agrupamiento de datos. A partir de la necesidad de resolver problemas de agrupamiento, hemos propuesto un algoritmo de particionamiento bioinspirado de búsqueda por vecindades. Este agrupamiento en una connotación bioinspirada, ha sido planteado después de observar algunas características comunes entre el particionamiento y la conducta del ser humano, donde dichas características pueden ser modeladas. Debido a la alta complejidad del particionamiento hemos incorporado la búsqueda por entorno variable (VNS) en el algoritmo de agrupamiento bioinspirado. La elección de esta metaheurística obedece a la semejanza que hay entre VNS y el modo en que los seres vivos se organizan para resolver situaciones de conflicto.<hr/>AbstractOne of the main sources of inspiration to propose new computational paradigms has been the observation of nature. Diverse artificial intelligence techniques have been created in this way.One of the efforts that has caused great impact is imitating the way some living beings survive, and in particular, the study of the study of brain function is useful to propose analogous schemes and solve some problems. In this point, the bioinspired systems have been originated as a set of models based on the behavior of certain biological systems, which can be seen in areas such as data mining and operations research where data clustering stands out. From the need of solving clustering problems, we have proposed a bioinspired neighborhood search partitioning algorithm. This algorithm, under a bioinspired connotation, has been proposed after observing some of the characteristics in common between clustering and human behavior, where said characteristics can be modeled. Given the high complexity of data clustering, we have incorporated variable neighborhood search (VNS) into the bioinspired clustering algorithm. We chose this metaheuristic because of the similarity that exists between VNS and the way that living beings get organized to solve conflict situations. <![CDATA[<em>Demographic and actuarial projections by means of Monte Carlo Markov Chains</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100241&lng=en&nrm=iso&tlng=en ResumenSe presenta una descripción del uso del método de las Cadenas de Markov por Monte Carlo para realizar las proyecciones demográficas actuariales, tomando como insumo las tablas de mortalidad, invalidez, mortalidad para inválidos para la población activa del fondo de pensiones del Magisterio Nacional de Costa Rica. Se incluyen ejemplos de la forma en que se implementa el método en la Junta de Pensiones y Jubilaciones del Magisterio Nacional de Costa Rica, que son parte de la información clave para la realización de las Valuaciones Actuariales del Régimen de Pensiones de los educadores.<hr/>AbstractA description of the method of Monte Carlo Markov Chains is presented for actuarial demographic forecast, in regard to the mortality, disability, mortality of disabled lives among others. We include examples of how the method is implemented in the Pensions and Retirements Fund for Teachers in Costa Rica, as a input for the results of the actuarial valuation of the pension plan. <![CDATA[<em>Mixed logistic model for predicting financial crisis in argentinean and chilean enterprises</em>]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100255&lng=en&nrm=iso&tlng=en ResumenDesde la década de 1960, las empresas tienen como objetivo evaluar los resultados futuros del gerenciamiento empresarial para predecir, a mediano plazo, procesos de gestación e instalación de estados de vulnerabilidad financiera. La información contenida en los estados financieros de las empresas y la posibilidad de analizar la evolución en el tiempo de los ratios contables permiten construir modelos de predicción de riesgo de crisis financiera. En este trabajo, se construye un modelo de predicción de riesgo con base en la información contenida en los Estados Contables de las empresas con oferta pública en las Bolsas de Santiago de Chile y de Valores de Buenos Aires (Argentina) para la década del 2000.La crisis financiera se caracteriza por la incapacidad de cumplir con las obligaciones de pago, la obtención de magnitudes excesivas de pérdidas y por situaciones extremas como la quiebra y posterior liquidación de la empresa. Hasta hace un poco más de un año, la mayoría de los trabajos desarrollados para cuantificar la incidencia de ratios financieros en la crisis empresarial, aplicaron métodos de corte transversal, por lo que la construcción de modelos para datos longitudinales resulta pertinente, en tanto incorporan la dimensión temporal en el estudio. En particular, se ha demostrado que el modelo logístico mixto, que tiene en cuenta la heterogeneidad no observada supera ampliamente el desempeño del modelo logístico estándar.Tanto en Argentina como en Chile se han aplicado, recientemente, modelos mixtos con coeficientes aleatorios para predecir estados de vulnerabilidad financiera.Los resultados obtenidos indican que, en las empresas chilenas, el ratio del capital de trabajo explica la mayor proporción de la heterogeneidad inducida por la correlación que presentan los datos, lo que justifica su inclusión como coeficiente aleatorio, mientras que en el mercado argentino lo es el índice de rentabilidad. Además, como efectos fijos, los indicadores con mayor capacidad predictiva de la crisis financiera son los índices de rentabilidad, rotación y endeudamiento.Se concluye que, los ratios significativos poseen poder discriminatorio y su comportamiento muestra que son indicadores para la predicción de crisis.<hr/>AbstractSince the 1960s, companies aim to evaluate future performance of the business management to predict the medium term, processes of gestation and installation of statements of financial vulnerability.The information contained in the financial statements of companies and the ability to analyze the evolution in time of financial ratios allows building models predicting risk of financial crisis.This paper presents a risk prediction model based on the information contained in the financial statements of companies with public offering on the Santiago Stock Exchange and the Stock Exchange of Buenos Aires (Argentina) in the 2000s.The financial crisis is characterized by an inability to meet payment obligations, obtaining excessive quantities of waste and in extreme situations like bankruptcy and subsequent liquidation of the company.Until a little over a year ago, most of the work done to quantify the impact of financial ratios in business crisis apply cross-sectional models, but the construction of models for panel data (longitudinal studies) is relevant given that incorporate the temporal dimension in the study. In particular, it has been demonstrated that the mixed logistic model considered unobserved heterogeneity exceeds the performance of standard logistic model.Both Argentina and Chile have recently applied mixed models with random coefficients to predict statements of financial vulnerability.The results indicate that in Chilean companies, the ratio of working capital accounts for the largest proportion of heterogeneity induced correlation present data, which justifies its inclusion as random coefficient, while in the Argentine market it is profitability rate. In addition, as fixed effects, indicators best predictor of the financial crisis they are profitability ratios, rotation and debt.It is concluded that significant ratios have discriminatory power and their behavior shows that are indicators for predicting crises. <![CDATA[Ordering catacondensed hexagonal systems with respect to VDB topological indices]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100277&lng=en&nrm=iso&tlng=en AbstractIn this paper we give a complete description of the ordering relations in the set of catacondensed hexagonal systems, with respect to a vertexdegree-based topological index. As a consequence, extremal values of vertex-degree-based topological indices in special subsets of the set of catacondensed hexagonal systems are computed.<hr/>ResumenEn este artículo presentamos una descripción completa de la relación de orden en el conjunto de sistemas hexagonales catacondensados, con respecto a un índice topológico basado en los grados de los vértices. Como consecuencia, se determinan los valores extremos de un índice topológico basados en los grados de los vértices en subconjuntos especiales del conjunto de sistemas hexagonales catacondensados. <![CDATA[On a conjecture of R. Brück concerning meromorphic function sharing small functions]]> http://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S1409-24332016000100291&lng=en&nrm=iso&tlng=en AbstractIn this paper, we investigate the uniqueness problem on a conjecture of R. Brück concerning meromorphic function sharing the set of small functions with its derivative, and obtain some results which improve the theorems given by Zhang and Yang.<hr/>ResumenEn este artículo, nvestigamos el problema de unicidad sobre una conjetura de R. Brück que concierne una función meromórfica que comparte un conjunto de pequeñas funciones con su derivada, y obtenemos algunos resultados que mejoran los teoremas dados por Zhang y Yang.