SciELO - Scientific Electronic Library Online

 
vol.71 issue1Structure of bryophyte communities in the paramo complexes of Boyacá-ColombiaLitterfall and nutrient transfer dynamics in a successional gradient of tropical dry forest in Colombia author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

Share


Revista de Biología Tropical

On-line version ISSN 0034-7744Print version ISSN 0034-7744

Rev. biol. trop vol.71 n.1 San José Jan./Dec. 2023

http://dx.doi.org/10.15517/rev.biol.trop..v71i1.51310 

Artículo

Herramientas de corte para optimizar parámetros de clasificación de especies maderables con redes neuronales convolucionales

Cutting tools to optimize classification parameters of timber species with convolutional neural networks

1 Laboratorio de Anatomía e Identificación de la Madera, Universidad Continental, Av. San Carlos 1980, Huancayo, Junín, Perú; 71906318@continental.edu.pe (*Correspondencia), calves@continental.edu.pe, jingag@continental.edu.pe, andres.velez.e@gmail.com, raulhuacho26@gmail.com, osir.vidal@gmail.com, sthefanymmoya@gmail.com, 73086825@continental.edu.pe, waltergoytendia@gmail.com, 70041331@continental.edu.pe

2 Laboratorio de Anatomía, Identificación y Densitometría de Rayos X en la Madera, Universidad de São Paulo, São Paulo, Brasil; mtomazel@usp.br

Resumen

Introducción:

La gran diversidad de especies maderables tropicales demanda el desarrollo de nuevas tecnologías de identificación con base en sus patrones o características anatómicas. La aplicación de redes neuronales convolucionales (CNN) para el reconocimiento de especies maderables tropicales se ha incrementado en los últimos años por sus resultados prometedores.

Objetivo:

Evaluamos la calidad de las imágenes macroscópicas con tres herramientas de corte para mejorar la visualización y distinción de las características anatómicas en el entrenamiento del modelo CNN.

Métodos:

Recolectamos las muestras entre el 2020 y 2021 en áreas de explotación forestal y aserraderos de Selva Central, Perú. Luego, las dimensionamos y, previo a la identificación botánica y anatómica, las cortamos en secciones transversales. Generamos una base de datos de imágenes macroscópicas de la sección transversal de la madera, a través del corte, con tres herramientas para ver su rendimiento en el laboratorio, campo y puesto de control.

Resultados:

Usamos tres herramientas de corte para obtener una alta calidad de imágenes transversales de la madera; obtuvimos 3 750 imágenes macroscópicas con un microscopio portátil que corresponden a 25 especies maderables. El cuchillo ''Tramontina'' es duradero, pero pierde el filo con facilidad y se necesita una herramienta para afilar, el cúter retráctil ''Pretul'' es adecuado para madera suave y dura en muestras pequeñas de laboratorio; el cuchillo ''Ubermann'' es apropiado para el campo, laboratorio y puesto de control, porque tiene una envoltura duradera y láminas intercambiables en caso de pérdida de filo.

Conclusiones:

La calidad de las imágenes es decisiva en la clasificación de especies maderables, porque permite una mejor visualización y distinción de las características anatómicas en el entrenamiento con los modelos de red neuronal convolucional EfficientNet B0 y Custom Vision, lo cual se evidenció en las métricas de precisión.

Palabras clave: árboles tropicales; madera ilegal; imágenes macroscópicas; aprendizaje automático; herramientas de corte; microscopio portátil.

Abstract

Introduction:

The great diversity of tropical timber species demands the development of new technologies capable of identifying them based on their patterns or anatomical characteristics. The application of convolutional neural networks (CNN) for the recognition of tropical timber species has increased in recent years due to the promising results of CNNs.

Objective:

To evaluate the quality of macroscopic images with three cutting tools to improve the visualization and distinction of anatomical features in the CNN model training.

Methods:

Samples were collected from 2020 to 2021 in areas of logging and sawmills in the Central Jungle, Peru. They were later sized and, after botanical and anatomical identification, cut in cross sections. A database of macroscopic images of the cross-section of wood was generated through cutting with three different tools and observing its performance in the laboratory, field, and checkpoint.

Results:

Using three cutting tools, we obtained high quality images of the cross section of wood; 3 750 macroscopic images were obtained with a portable microscope and correspond to 25 timber species. We found the ''Tramontina'' knife to be durable, however, it loses its edge easily and requires a sharpening tool, the ''Pretul'' retractable cutter is suitable for cutting soft and hard wood in small laboratory samples and finally the ''Ubermann'' knife is suitable for use in the field, laboratory, and checkpoint, because it has a durable sheath and interchangeable blades in case of dullness.

Conclusion:

The quality of the images is decisive in the classification of timber species, because it allows a better visualization and distinction of the anatomical characteristics in training with the EfficientNet B0 and Custom Vision convolutional neural network models, which was evidenced in the precision metrics.

Key words: tropical trees; illegal timber; macroscopic images; machine learning; cutting tools; portable microscope.

Introducción

La percepción de la sociedad acerca del funcionamiento de los sistemas biológicos y propiedades de productos de origen natural o manufacturados, ha cambiado con los avances tecnológicos direccionándolos a la solución de problemas generales o específicos (Duan et al., 2019; Livingston & Risse, 2019). De esta forma surgen las bases de la inteligencia artificial (IA), implementada en la década de 1950s con la máquina de ''Turing'' (Turing, 1936), una propuesta de modelo matemático para una maquina automática, caracterizada principalmente por parámetros de almacenamiento y unidad de control. En 1956, John MacCarthy, aplica el término IA, refiriéndose a una máquina inteligente, capaz de aconsejar, tomar decisiones y razonar como una persona (Morgenstern & Mcilraith, 2011), donde los algoritmos que utiliza la IA para simular el razonamiento humano son llamados aprendizaje automático o Machine Learning (Portugal et al., 2015).

Las redes neuronales son algoritmos que pertenecen al campo de Machine Learning aplicados para la segmentación, detección y clasificación de imágenes de diverso origen y naturaleza (Aguilar-Alvarado & Campoverde-Molina, 2019; LeCun et al., 2015). Estos algoritmos toman las imágenes como entrada y en cada una detectan una serie de características con base en patrones y son capaces de diferenciar unas imágenes de otras (Hafemann et al., 2014; Krizhevsky et al., 2012). El uso de algoritmos de Machine Learning se ha extendido a importantes sectores y especialidades, como en la medicina para el diagnóstico de diferentes enfermedades, por ejemplo, para identificar los síntomas de Covid-19 en radiografías de pacientes. Inclusive, en el ajedrez y StarCraft II se utiliza el algoritmo AlphaZero para contar con estrategias y decisiones en tiempo real (Nouretdinov et al., 2015; Porcelli & Martínez, 2020; Silver et al., 2018; Simić et al., 2018; Vinyals et al., 2019; Ye, 2015).

Los algoritmos de Machine Learning son aplicados en la industria de la madera, principalmente, para la clasificación de especies maderables utilizando imágenes macroscópicas de la madera con redes neuronales artificiales (ANN) (Khalid et al., 2008; Yadav et al., 2013) y redes neuronales convolucionales (CNN) (Fabijańska et al., 2021; Hafemann et al., 2014; Kwon et al., 2017; Siew et al., 2017).

Ante la alta diversidad de especies maderables en los bosques tropicales, existe una creciente necesidad de desarrollar aplicaciones móviles con IA para la identificación de especies maderables desde la extracción, transporte y comercialización. Sin embargo, las limitaciones en la obtención de hojas, flores y/o frutos para la identificación botánica o la obtención de secciones transversales para la identificación anatómica, y el insuficiente número de expertos en identificación de especies a partir de la caracterización anatómica en los puestos de control y fiscalización no permiten avanzar en las políticas de control para reducir la tala ilegal (de Andrade et al., 2020; Filho et al., 2014; Ravindran et al., 2020).

Usualmente, la identificación de especies maderables se realiza con imágenes microscópicas, las cuales demandan una serie de procedimientos, reactivos y equipos sofisticados de laboratorio, cuya alta calidad en la visualización de las características anatómicas, incrementa la precisión de un modelo de red neuronal convolucional (Hafemann et al., 2014; Koch & Haag, 2015; Lens et al., 2020). Sin embargo, la identificación de especies maderables empieza en campo, luego en el puesto de control y finalmente en los centros de comercialización; en estos espacios se requiere una metodología accesible, rápida y práctica. Ante estas condiciones se recurre a la identificación macroscópica de la madera, se realiza un corte con una navaja en la sección transversal y con un lente de 10X se observan las características anatómicas, convirtiéndose en una metodología sencilla y de bajo costo para identificar especies maderables en campo (Filho et al., 2014).

La aplicación de las CNN en la identificación de especies maderables requiere una amplia y representativa base de datos de imágenes macroscópicas de la madera, lo cual se ha incrementado progresivamente desde que se inició el uso de las CNN. Por ejemplo: Apolinario-Lainez et al. (2018) obtuvieron 115 imágenes para describir 7 especies maderables en Perú, Kwon et al. (2017) obtuvieron 187 imágenes de 5 especies maderables en Korea del Sur, Apolinario et al. (2019) utilizaron 355 imágenes de 16 especies, Filho et al. (2010) obtuvieron 1 270 imágenes de 22 especies de Brasil, Ravindran et al. (2019) obtuvieron 2 187 imágenes de 15 géneros, Ravindran et al. (2018) entrenaron un modelo CNN con 2 303 imágenes de 10 especies de la familia Meliaceae; Filho et al. (2014) incrementaron a 2 942 imágenes para 41 especies en Brasil, Yang et al. (2019) presenta 4 800 imágenes de 25 especies, y Mata-Montero et al. (2020) muestran 3 516 imágenes de 146 especies de Costa Rica. Sin embargo, acceder a un banco de imágenes macroscópicas o microscópicas es una recurrente restricción para la aplicación de redes neuronales ANN y CNN en la identificación de especies maderables (Hanssen et al., 2011).

En la captura de imágenes macroscópicas se requiere la preparación de la sección transversal de la madera para visualizar mejor las características anatómicas, para lo cual se utiliza lijas (Rajagopal et al., 2019), cutters (Tang et al., 2018), micrótomos (Khalid et al., 2008) y cuchillos (de Andrade et al., 2020). Sin embargo, se requiere procedimientos adicionales para mejorar la calidad de las imágenes macroscópicas como: estabilizar el sistema de iluminación (Rajagopal et al., 2019), extraer el polvo que obstruye el lumen de los poros después del pulido (Ibrahim et al., 2017) y la selección de áreas sin defectos, grietas, áreas podridas por organismos xilófagos y zonas de anormalidad de crecimiento como nudos, entre otros (da Silva et al., 2017).

El presente estudio se realizó en el puesto de control del SERFOR: ''El Pedregal'' de la provincia Chanchamayo, región Junín; durante las inspecciones a los camiones de carga que transportan madera aserrada se evidenció que no se dispone de tiempo suficiente para preparar la superficie transversal de la madera y obtener imágenes macroscópicas ante el paso constante de camiones de carga. Asimismo, la revisión y verificación de información consignada en la Guía de Transporte Forestal (GTF) no debe exceder 15 min. Por estas razones, es imprescindible contar con equipos y materiales accesibles para obtener imágenes macroscópicas de alta calidad. Se describe la aplicación de tres herramientas de corte en campo y el uso de un microscopio portátil en la captura de imágenes macroscópicas para lograr la clasificación de 25 especies maderables de Selva Central con redes neuronales convolucionales (CNN).

Materiales y métodos

Obtención y preparación de muestras: Las muestras corresponden a 25 especies maderables de Selva Central, se obtuvieron dos tipos de muestras: i. Pequeñas piezas de madera de aserraderos de la provincia Chanchamayo y Satipo, y ii. Rodajas o secciones transversales de los árboles aprovechados por empresas madereras en bosques de comunidades nativas de la provincia Satipo, región Junín (Ferreira et al., 2021).

Las muestras recolectadas fueron etiquetadas con sus nombres comunes, luego fueron llevadas al Laboratorio de Anatomía e Identificación de la Madera de la Universidad Continental campus Incho, Huancayo para realizar la identificación y caracterización anatómica. Se obtuvieron secciones rectangulares (2.5 cm de ancho x 6 cm de largo y 3 cm de alto), evitando áreas con defectos (grietas, rajaduras o áreas podridas por organismos xilófagos) para evitar confusiones en la identificación de patrones anatómicos (da Silva et al., 2017) como se muestra en la Fig. 1.

Fig. 1 A. y B. Preparación de muestras de madera. C. Obtención de imagen macroscópica con el microscopio portátil. D. Imagen macroscópica de Matisia cordata. / Fig. 1. A. and B. Preparation of wood samples. C. Obtaining a macroscopic image with the portable microscope. D. Macroscopic image of Matisia cordata

Esta etapa es esencial para obtener una metodología adecuada en el proceso de corte y obtención de imágenes. Sin embargo, algunos autores no contemplan la etapa de obtención de muestras y preparación, al contrario, empiezan directamente con la adquisición de imágenes por contar con repositorios de imágenes o muestras de xilotecas en laboratorio. Este estudio describe la importancia del corte en la preparación y propone una serie de etapas para la clasificación, diferente a las reportadas en la Tabla 1.

Tabla 1 Etapas para la clasificación de especies maderables con CNN. / Table 1. Stages for the classification of timber species with CNN. 

Referencia Etapa 1 Etapa 2 Etapa 3 Etapa 4 Etapa 5
(Khalid et al., 2008) Recopilación de muestras Adquisición de imágenes Mejoramiento de imágenes Extracción de características Clasificación
(Filho et al., 2014) Adquisición de imágenes Extracción de características Clasificación
(Backes & Sá Junior, 2016) (de Andrade et al., 2020) Adquisición de imágenes Preprocesamiento de imágenes Segmentación de imágenes Extracción de características Clasificación
(Kwon et al., 2017) Preparación de la muestra Extracción de características Clasificación
(de Andrade et al., 2020) Preparación de la muestra Adquisición de imágenes Preprocesamiento de imágenes Extracción de características Clasificación
Presente trabajo Obtención de muestras Preparación de las muestras Corte en sección transversal Adquisición de imágenes Clasificación

Obtención de imágenes macroscópicas: Las imágenes macroscópicas fueron obtenidas en la sección transversal, se utilizaron: (i) un cuchillo ''Tramontina'', (ii) un cúter retráctil ''Pretul'' y (iii) una cuchilla ''Ubermann'' con láminas intercambiables. Al realizar el corte, se obtuvieron imágenes de la estructura anatómica macroscópica de las maderas con un microscopio portátil ''Dinolite'', el cual posee un aumento de hasta 250X, presenta un lente de 2.2 cm de diámetro correspondiente a 0.8 x 0.6 cm de la superficie de la madera e iluminación constante. Este microscopio cuenta con fuente de luz propia de 8 leds y mantiene las mismas condiciones de iluminación tanto de día como de noche.

Adicionalmente, su tamaño permite un uso práctico en campo, como en el puesto de control ''El Pedregal'' SERFOR, dónde es necesario subir a los camiones para inspeccionar las piezas de madera aserrada.

Para la captura de imágenes macroscópicas se utilizó el microscopio portátil con un aumento de 50X, este se conecta a un adaptador microUSB o tipo C al celular, luego a través de Play Store se descarga la aplicación denominada ''USB Camera'' para reconocer el microscopio portátil al momento de conectarlo al dispositivo móvil y finalmente obtener una imagen de 640 x 480 pixeles como se observa en la Fig. 1C y Fig. 1D respectivamente.

Se obtuvieron 50 imágenes por especie, estas fueron organizadas en una carpeta y permanecen en la nube con acceso directo para futuras investigaciones. Se obtuvieron 1 250 imágenes macroscópicas por cada herramienta de corte y se dispone de 3 750 imágenes en total, y estas se encuentran disponibles en el siguiente link: https://bit.ly/3K0CrRA.

Clasificación de especies maderables: El entrenamiento de imágenes macroscópicas de las 25 especies maderables se realizó con dos modelos de red neuronal convolucional: ''EfficientNet B0'' en la plataforma Google Colaboratory y ''Custom Vision'' en la plataforma de Microsoft Azure, para contrastar los porcentajes de clasificación.

Resultados

Dimensiones de una muestra: Determinar las dimensiones de una muestra de madera es esencial para una correcta manipulación y corte de la sección transversal, la captura de imágenes, su almacenamiento y conservación. Entre las dimensiones de muestras más utilizadas encontramos desde pequeñas (2 cm de alto x 1.5 cm de ancho x 4 cm de largo) (de Andrade et al., 2020) y medianas (4cm de alto x 5 cm de ancho y 10 cm de largo) (Kwon et al., 2017). Las dimensiones de las muestras se pueden observar en la Fig. 1A, el ancho de 2.5 cm facilita el corte de la superficie con las tres herramientas, en especial con la cuchilla Ubermann que posee una longitud máxima de 3 cm y el ancho de la muestra puede variar de 2 a 3 cm. Con respecto al largo de 6 cm, este estudio propone una longitud de 5 a 8 cm para mayor seguridad en el proceso de corte, ya sea fijado en un tornillo de banco o con las manos como se observa en la Fig. 2. Para el alto de las muestras se sugiere como mínimo 3 cm, dimensiones menores a este, podrían ocasionar accidentes o daño en los dedos. Las dimensiones pequeñas de las muestras permiten su almacenamiento y conservación para la estabilización de humedad y protección contra organismos xilófagos (Fig. 1B).

Fig. 2 Corte de muestras de madera; A. Posición de corte para maderas duras. B. Suaves. C. muestra fijada en un tornillo de banco. / Fig. 2. Cutting of wood samples; A. Cutting position for hardwoods. B. Soft. C. Specimen fixed in a vice. 

Obtención de imágenes macroscópicas: Para obtener una alta calidad de imágenes macroscópicas se debe tener en cuenta el corte y el tipo de herramienta utilizada, como se observa en la Fig. 3 con las imágenes macroscópicas de Cedrelinga cateniformis y Brosimum alicastrum. Además, es importante describir las características físicas y ergonómicas de las tres herramientas de corte presentes en la Tabla 2 para evaluar su rendimiento o capacidad en el uso de campo, laboratorio o puesto de control.

Fig. 3 A. Herramientas para el corte de muestras; cuchillo Tramontina, cúter retráctil Pretul y cuchilla Ubermann. B. Imagen macroscópica de Cedrelinga cateniformis. C. Imagen macroscópica de Brosimum alicastrum. / Fig. 3. A. Tools for cutting samples; Tramontina knife, Pretul retractable cutter and Ubermann blade. B. Macroscopic image of Cedrelinga cateniformis. C. Macroscopic image of Brosimum alicastrum

Tabla 2 Diferencias entre las tres herramientas de corte. / Table 2. Differences between the three cutting tools. 

Herramientas de corte Descripción Rendimiento en maderas
Mango Lámina Suaves Duras
Cuchillo Tramontina Policarbonato reforzado con fibra de vidrio Acero inoxidable Corta con facilidad Pierde el filo rápidamente
Cúter retráctil Pretul Plástico ABS Acero al carbono intercambiable Corta con facilidad No tiene la fuerza para hacer el corte
Cuchilla Ubermann Goma termoplástica Acero inoxidable intercambiable Corta con facilidad Es resistente y duradera

En la Fig. 3, se presenta la calidad de las imágenes con las tres herramientas de corte y corresponden a las especies Cedrelinga cateniformis cuya densidad de 0.50 g/cm3 genera una resistencia blanda al corte y Brosimum alicastrum cuya densidad de 0.70 g/cm3 genera una resistencia medianamente dura al corte (Richter & Dallwitz, 2019), obteniéndose una alta calidad de corte con el estilete retráctil Pretul.

Las imágenes presentes en la Fig. 4 muestran una mejor visualización de sus características anatómicas en orientación vertical en función de sus radios, estas imágenes fueron obtenidas al hacer el corte de la sección transversal de la madera con el estilete retráctil Pretul.

Fig. 4 Imágenes macroscópicas de 25 especies con aumento de 50X. A. Caryocar glabrum. B. Allantoma decantra. C. Hura crepitans. D. Cedrela angustifolia. E. Cedrela odorata. F. Brosimum alicastrum. G. Copaifera paupera. H. Otoba glycycarpa. I. Poulsenia armata. J. Brosimum utile. K. Ocotea aciphylla. L. Aiouea montana. M. Ficus insípida. N. Calophyllum brasiliense. O. Jacaranda copaia. P. Sterigmapetalum obovatum. Q. Schizolobium parayba. R. Protium altissima. S. Hymenopus heteromorphus. T. Ocotea gracilis. U. Matisia cordata. V. Cedrelinga cateniformis. W. Clarisia racemosa. X. Terminalia oblonga. Y. Enterolobium sp. / Fig. 4. Macroscopic images of 25 species with 50X magnification. A. Caryocar glabrum. B. Allantoma decantra. C. Hura crepitans. D. Cedrela angustifolia. E. Cedrela odorata. F. Brosimum alicastrum. G. Copaifera paupera. H. Otoba glycycarpa. I. Poulsenia armata. J. Brosimum utile. K. Ocotea aciphylla. L. Aiouea montana. M. Ficus insipidus. N. Calophyllum brasiliense. O. Jacaranda copaia. P. Sterigmapetalum obovatum. Q. Schizolobium parayba. R. Protium altissima. S. Hymenopus heteromorphus. T. Ocotea gracilis. U. Matisia cordata. V. Cedrelinga cateniformis. W. Clarisia racemosa. X. Terminalia oblonga. Y. Enterolobium sp. 

Para una captura efectiva de la imagen se requiere realizar el corte en un área mínima de 2.5 cm de ancho x 2.5 cm de largo en la sección transversal. Incluso, las redes neuronales convolucionales pueden clasificar las imágenes macroscópicas en cualquier ángulo de orientación en relación con sus elementos anatómicos. Esto gracias al aumento de datos (Data Augmentation) que permite girar, incrementar o disminuir las imágenes (zoom).

Clasificación de especies maderables: Con las 3 750 imágenes macroscópicas se entrenaron los modelos de redes neuronales convolucionales EfficientNet B0 en la plataforma de Google Colaboratory y el servicio Custom Vision de Microsoft Azure, las métricas de precisión se pueden observar en la Fig. 5 y Fig. 6, respectivamente.

Fig. 5 Matriz de confusión del modelo EfficientNet B0 con imágenes macroscópicas obtenidas con el cúter retráctil Pretul. / Fig. 5. Confusion matrix of the EfficientNet B0 model with macroscopic images obtained with the Pretul retractable cutter. 

Fig. 6 Métricas de precisión del modelo ''Custom Vision'' en la plataforma de Microsoft Azure con imágenes macroscópicas obtenidas con el cúter retráctil Pretul. / Fig. 6. Accuracy metrics of the ''Custom Vision'' model on the Microsoft Azure platform with macroscopic images obtained with the Pretul retractable cutter. 

La numeración de las 25 especies maderables presenta el mismo orden de la Tabla 3 es decir, el número 0 en la matriz de confusión corresponde a la especie número 1: Caryocar glabrum (almendro) de la Tabla 3 y el número 24 de la matriz de confusión corresponde a la especie número 25: Enterelobium sp. (yarahuisca) descritas en la Tabla 3. La línea diagonal representa el porcentaje de clasificación correcta que realiza el modelo en la fase de validación. Por ejemplo, la especie Cedrela angustifolia fue clasificada correctamente con un 60 % de precisión, sin embargo, el modelo lo confunde con Cedrela odorata en un 40 %, esto debido a la similitud de sus características anatómicas como el tipo de porosidad semi-poroso y la demarcación de anillos de crecimiento por bandas de parénquima marginal (Ferreira & Inga, 2022), además, los poros presentan diámetros distintos asociados a una coloración más clara a rosada en C. angustifolia y roja en C. Odorata con poros más grandes cerca del parénquima marginal.

Tabla 3 Lista de 25 especies maderables de Selva Central del Perú (Ferreira et al., 2021). / Table 3. List of 25 timber species from the Central Jungle of Peru (Ferreira et al., 2021). 

N Nombre común Nombre científico Familia
1 Almendro Caryocar glabrum (Aubl.) Caryocaraceae
2 Cachimbo Allantoma decantra (Ducke) Lecythidaceae
3 Catahua Hura crepitans L. Euphorbiaceae
4 Cedro Cedrela angustifolia Sessé & Moc Meliaceae
5 Cedro Cedrela odorata L. Meliaceae
6 Congona Brosimum alicastrum Sw. Moraceae
7 Copaiba Copaifera paupera (Herzog) Fabaceae
8 Cumala Otoba glycycarpa (Ducke) Myristicaceae
9 Lanchan Poulsenia armata (Miq.) Moraceae
10 Leche Caspi Brosimum utile (Kunth) Oken Moraceae
11 Moena Amarilla Ocotea aciphylla (Nees & Mart.) Lauraceae
12 Moena Blanca Aiouea montana (Sw.) R. Rohde Lauraceae
13 Oje Ficus insipida Wildenow Moraceae
14 Palo Azufre/lagarto caspi Calophyllum brasiliense Cambess. Calophyllaceae
15 Palo Carton Jacaranda copaia (Aublet) Bignoneaceae
16 Palo Verde Sterigmapetalum obovatum Kuhlm. Rhizophoraceae
17 Pino Chuncho Schizolobium parayba (Vell.) Fabaceae
18 Pochotaroque Protium altissimum (Aubl) Marchand Burseraceae
19 Sachapalta Hymenopus heteromorphus (Benth.) Chrysobalanaceae
20 Moena Ocotea gracilis (Meisn.) Mez Lauraceae
21 Sapote Matisia cordata Ducke Malvaceae
22 Tornillo Cedrelinga cateniformis (Ducke) Fabaceae
23 Tulpay Clarisia racemosa Ruiz & Pav. Moraceae
24 Yacushapana Terminalia oblonga (Ruiz & Pavon) Combretaceae
25 Yarahuisca Enterolobium sp. Mart. Fabaceae

Dentro del modelo EfficientNet B0, el 80 % de imágenes fue para entrenamiento y el 20 % para validación y para las pruebas se realizaron con imágenes que no están dentro de la base de datos, mientras que en el modelo ''Custom Vision'' de la plataforma Microsoft Azure no se puede acceder a la distribución de imágenes para dividir imágenes en la fase de entrenamiento y validación. Sin embargo, recomienda el uso de 50 imágenes como mínimo por especie para realizar una buena clasificación. Por esta razón, el entrenamiento se realizó con 50 imágenes por especie en un tiempo de 4 h como se muestra en la Fig. 6, mostrando un 100 % de precisión en la clasificación.

La confusión entre especies que pertenecen a la misma familia es muy común en las maderas debido a la semejanza de sus características anatómicas, es por ello que el modelo de EffficientNet B0 muestra como las especies de la familia Cedrela sp. se confunden entre ellas en porcentajes distintas al entrenar las imágenes macroscópicas con las tres herramientas de corte. La Tabla 4 muestra que solo 25 imágenes de la especie de Cedrela angustifolia fueron clasificadas correctamente por el modelo y 14 imágenes que representa el 27.78 % fueron confundidas con la especie de Cedrela odorata al preparar la base de datos con la herramienta de Cuchillo Tramontina, estos datos se van mejorando con las otras herramientas de corte como se muestra en la Tabla 4.

Tabla 4 Porcentaje de clasificación de imágenes con herramientas de corte distintos para dos especies de Cedrela sp. con el modelo de red neuronal convolucional ''EfficientNet B0''. Table 4. Percentage of classification of images with different cutting tools for two species of Cedrela sp. with the convolutional neural network model ''EfficientNet B0'' 

Herramientas de corte Especies donde el modelo se confunde al clasificar
Cedrela angustifolia Cedrela odorata
Clasifica correctamente (%) Clasifica erróneamente (%)
1. Cuchillo Tramontina 50 27.78
2. Cúter Retráctil Pretul 63.63 36.36
3. Cuchilla Ubermann 72.22 27.77

La matriz de confusión de la Fig. 6 muestra la similitud que hay entre dos especies de diferentes familias al ser entrenadas con tres bases de datos diferentes y que los tres muestran confusión entre las especies de Calophyllum brasiliense y Terminalia oblonga como se muestra en la Tabla 5, es decir, 28 imágenes de la especie Calophyllum brasiliense de fueron clasificadas correctamente y los otros 22 fueron clasificadas erróneamente y confundidas con las especie de Terminalia oblonga al realiza el entrenamiento con la base de datos preparada con la herramienta de corte Cuchillo Tramontina que mostró solo el 55.56 % de precisión.

Tabla 5 Porcentaje de clasificación de imágenes con herramientas de corte para dos especies con el modelo ''EfficientNet B0'' / Table 5. Percentage of image classification with cutting tools for two species with the ''EfficientNet B0'' model. 

Herramientas de corte Especies donde el modelo se confunde al clasificar
Calophyllum brasiliense Terminalia oblonga
Clasifica correctamente (%) Clasifica erróneamente (%)
1. Cuchillo Tramontina 55.56 33.33
2. Cúter Retráctil Pretul 78.57 7.14
3. Cuchilla Ubermann 63.63 36.36

La diferencia en la precisión del análisis de imágenes macroscópicas obtenidas con las tres herramientas de corte es de solo 0.6 % como se visualiza en la Tabla 6, este resultado indica semejanzas en la calidad de corte de las muestras. El F1-Score es el parámetro principal y representa la media armónica entre la precisión y el Recall incorporando en una sola métrica los falsos positivos (precisión) y los negativos (Recall) (Berzal, 2018). El mejor resultado de F1-Score se logró al entrenar las imágenes obtenidas con el cúter retráctil Pretul con 88.8 % y la diferencia entre Recall y precisión es de tan solo 1.6 % en comparación con los valores de 3.7 y 5.8 % para el cuchillo Tramontina y la cuchilla Ubermann.

Tabla 6 Resultados de entrenamiento de los dos modelos CNN con las herramientas de corte. / Table 6. Training results of the two CNN models with the cutting tools 

Herramientas de corte Modelos CNN N° de imágenes
EfficientNet B0 Custom Vision
F1-Score (%) Recall (%) Precisión (%) F1-Score (%) Recall (%) Precisión (%)
1. Cuchilla Tramontina 86.5 86.8 90.5 100 100 100 1 250
2. Cúter retráctil Pretul 88.8 89.5 91.1 100 100 100 1 250
3. Cuchillo Ubermann 85.4 85.9 91.7 100 100 100 1 250

La Fig. 7 muestra gráficamente la variación de los parámetros de medición que se indicaron en la Tabla 6, se puede ver que la precisión es el valor con mayor porcentaje superando considerablemente a los parámetros de F1-Score y Recall, con las herramientas de cuchillo Tramontina y cuchilla Ubermann. Sin embargo, el estile retráctil Pretul no muestra demasiada amplitud entre los tres parámetros.

Fig. 7 Métricas de precisión del modelo EfficientNet B0. / Fig. 7. Accuracy metrics of the EfficientNet B0 model. 

Discusión

Las redes neuronales convolucionales (CNN) realizan la etapa de extracción de características de manera automática después de haber obtenido la base de imágenes macroscópicas como se muestra en la Tabla 1 y continua con la clasificación de especies. Anteriormente, diversos autores (Filho et al., 2014; Khalid et al., 2008; Kwon et al., 2017) consideraban la extracción de características de la madera como paso adicional y manual en el uso de métodos tradicionales, como SVM (Suport Vector Machine) (Gu et al., 2010), RF (Random Forest) (Breiman, 2001; Gonçalves et al., 2022) o LDA (Linear Discriminant Analysis) (Lens et al., 2020).

Las herramientas de corte son indispensables para la implementación de base de datos con imágenes macroscópicas de maderas. En condiciones de laboratorio, el cúter retráctil Pretul facilitó la obtención de imágenes macroscópicas con una mayor claridad de los elementos anatómicos. Sin embargo, no todas tienen la misma eficiencia en campo, en el caso del cuchillo Tramontina se pudo observar la necesidad de estar afilando constantemente para renovar el filo y disponer de una piedra de afilar siempre, el cúter retráctil Pretul al ser liviano y tener una envoltura hecha de un material duro de plástico ABS no es recomendable en maderas duras porque se gasta rápido la envoltura del material. Sin embargo, la cuchilla Ubermann resulto ser la más adecuada para usar en campo por tener láminas reemplazables en caso de perder filo y la envoltura de la herramienta es de acero lo cual no se desgasta al realizar cortes en maderas duras.

Al igual que la familia Meliaceae, existen varias especies que conforman una sola familia como Lauraceae, son complejas de identificar mediante la taxonomía botánica y aún más con la anatomía de la madera. Para ello, el modelo ''Custom Vision'' de Microsoft Azure tiene la facilidad de cargar imágenes y al culminar el entrenamiento la plataforma te permite realizar test de prueba, que consiste en cargar solo una imagen y clasificará de acuerdo con la similitud de características encontradas dentro de la base de datos. En la prueba se encontró que la precisión del 100 % disminuye a 89.8 % con la especie Cedrela angustifolia confundiéndose con Cedrela odorata en un 9.8 % como se observa en la Fig. 8A; Brosimum alicastrum disminuye a 53.2 % de probabilidad de reconocimiento confundiéndose en un 43.7 % con Terminalia oblonga presente en la Fig. 8B.

Fig. 8 Prueba rápida de A. Cedrela angustifolia. B. Brosimum alicastrum. C. Imagen de Ficus insipida de buena calidad. D. Imagen de Ficus insipida de baja calidad. / Fig. 8. Rapid test for A. Cedrela angustifolia. B. Brosimum alicastrum. C. Good quality image of Ficus insipida. D. Low-quality image of Ficus insipida

La calidad de las imágenes es importante para una mayor precisión en la clasificación, la especie Ficus insípida presenta 99.7 % de reconocimiento con una buena calidad de imagen añadiendo características anatómicas peculiares como las bandas de parénquima axial (Ferreira & Inga, 2022) como se visualiza en la Fig. 8C, mientras que la misma especie con una imagen que no presenta un buen corte, solo alcanzó 36.8 % de precisión Fig. 8D.

Las ventajas del modelo EfficientNet B0 es el acceso al código de programación y dentro de ello se pueden hacer los cambios necesarios como aumento de datos, acceder a la base de datos de imágenes, cambiar el número de recorridos o epochs del modelo, seleccionar las imágenes de entrenamiento y validación, entre otros, los resultados del entrenamiento se pueden visualizar en la matriz de confusión de la Fig. 5. Mientras que el modelo Custom Vision de Microsoft Azure solo requiere cargar las imágenes en la plataforma y comenzar con el entrenamiento durante el tiempo que uno desee, desde 1 h hasta 96 h máxima, sin embargo, el costo de entrenamiento por hora es de $10 USD y los resultados de entrenamiento con tiempo mayor a 1 h es de 100 % de precisión. La ventaja principal es el interfaz amigable para entrenar imágenes sin tener conocimiento de programación o redes neuronales, la opción Quick Test del modelo Custom Vision permite subir una imagen y comprobar en tiempo real si reconoce o no la imagen, como se muestra en la Fig. 8.

La variedad de las imágenes es, sin duda, el factor principal para optimizar el rendimiento de cualquier modelo CNN, la calidad de la imagen en la Fig. 8D no es muy buena y por ende su rendimiento es menor, esto debido a que el modelo se entrenó con imágenes de alta calidad, frente a ellos es imprescindible entrenar modelos CNN con imágenes de alta y baja calidad para tener variabilidad en la base de datos. Sin embargo, la calidad de los cortes no es el único factor que podría generar variabilidad en la base de datos, también se debe mencionar a las muestras de madera frescas (muestras que han sido recién extraídas y máximo al quinto día se obtiene las imágenes) como se muestran en la Fig. 9A y Fig. 9B. Las muestras secas (pasaron el proceso de secado al aire libre sin presencia de lluvias) (Fig. 9C) y las muestras húmedas (estuvieron expuestos al sol y la lluvia) (Fig. 9D). Una sola especie puede presentar variedad en su estructura anatómica macroscópica y también en sus características generales como color, distribución de poros, entre otros, según el ambiente en que se encuentra, esto se realizó con la finalidad de generar mayor variabilidad en las imágenes que constituyen la base de datos y observar el comportamiento del modelo al realizar pruebas con estas imágenes.

Fig. 9 Imagen macroscópica de Schizolobium parayba. A.-B. Madera fresca. C. Madera seca. D. Madera húmeda. / Fig. 9. Macroscopic image of Schizolobium parayba. A.-B. Cool wood. C. Dry wood. D. Damp wood. 

Declaración de ética: los autores declaran que todos están de acuerdo con esta publicación y que han hecho aportes que justifican su autoría; que no hay conflicto de interés de ningún tipo; y que han cumplido con todos los requisitos y procedimientos éticos y legales pertinentes. Todas las fuentes de financiamiento se detallan plena y claramente en la sección de agradecimientos. El respectivo documento legal firmado se encuentra en los archivos de la revista.

Agradecimientos

Agradecemos al proyecto ''MaderApp: Un aplicativo móvil para el reconocimiento automático y en tiempo real de especies maderables comerciales para combatir la tala ilegal en Selva Central, Perú'' financiado por el Proyecto Concytec-Banco Mundial ''Mejoramiento y ampliación de los Servicios del Sistema Nacional de Ciencia y Tecnología e Innovación Tecnológica'' 8682-PE, a través de su unidad ejecutora ProCiencia con Contrato N° 043-2019. Un agradecimiento especial a todo el equipo del proyecto por su apoyo en campo y laboratorio.

Referencias

Aguilar-Alvarado, J. V., & Campoverde-Molina, M. A. (2019). Classification of fruits based on convolutional neural networks. Polo de Conocimiento, 5(1), 3-22. https://doi.org/10.23857/pc.v5i01.1210 [ Links ]

Apolinario-Lainez, M. P. E., Huamán-Bustamante, S. G., & Orellana, G. C. (2018). Deep learning applied to identification of commercial timber species from Peru. 2018 IEEE XXV International Conference on Electronics, Electrical Engineering and Computing, 2018, 1-4. https://doi.org/10.1109/INTERCON.2018.8526457 [ Links ]

Apolinario, M. P. E., Urcia, D. A., & Huaman, S. G. (2019). Open set recognition of timber species using deep learning for embedded systems. IEEE Latin America Transactions, 17(12), 2005-2012. https://doi.org/10.1109/TLA.2019.9011545 [ Links ]

Backes, A., & Sá Junior, J. J. de M. (2016). Introdução à visão computacional usando MATLAB. Alta Books Editora. [ Links ]

Berzal, F. (2018). Redes neuronales & deep learning. Publicación independiente. https://deep-learning.ikor.org/bookLinks ]

Breiman, L. (2001). Random forests. Machine Learning, 45(2), 5-32. https://doi.org/10.1023/A:1010950718922 [ Links ]

de Andrade, B. G., Basso, V. M., & de Figueiredo-Latorraca, J. V. (2020). Machine vision for field-level wood identification. IAWA Journal, 41(4), 681-698. https://doi.org/10.1163/22941932-bja10001 [ Links ]

Duan, Y., Edwards, J. S., & Dwivedi, Y. K. (2019). Artificial intelligence for decision making in the era of Big Data-evolution, challenges and research agenda. International Journal of Information Management, 48(2019), 63-71. https://doi.org/10.1016/j.ijinfomgt.2019.01.021 [ Links ]

Fabijańska, A., Danek, M., & Barniak, J. (2021). Wood species automatic identification from wood core images with a residual convolutional neural network. Computers and Electronics in Agriculture, 181(2021), 105941. https://doi.org/10.1016/j.compag.2020.105941 [ Links ]

Ferreira, C. A., Inga, J. G., Vidal, O. D., Goytendia, W. E., Moya, S. M., Centeno, T. B., Vélez, A., Gamarra, D., & Tomazello-Filho, M. (2021). Identification of tree species from the Peruvian tropical amazon ''Selva Central'' forests according to wood anatomy. BioResources, 16(4), 7161-7179. https://doi.org/10.15376/biores.16.4.7161-7179 [ Links ]

Ferreira, C., & Inga, G. (2022). Guía de anatomía e identificación de 50 especies maderables comerciales en Selva Central, Perú. Universidad Continental. [ Links ]

Filho, P. L., Oliveira, L. S., Britto, A. S., & Sabourin, R. (2010). Forest species recognition using color-based features. 20th Proceedings-International Conference on Pattern Recognition, 2010, 4178-4181. https://doi.org/10.1109/ICPR.2010.1015 [ Links ]

Filho, P. L. P., Oliveira, L. S., Nisgoski, S., & Britto, A. S. (2014). Forest species recognition using macroscopic images. Machine Vision and Applications, 25(4), 1019-1031. https://doi.org/10.1007/s00138-014-0592-7 [ Links ]

Gonçalves, Y. L. M., Siqueira, E. S., Ferreira, C. A., Teixeira, M. da S., Correa, P. da V., & Urbinati, C. V. (2022). Aplicação de algoritmos de Random Forest no suporte à identificação das espécies Handroanthus serratifolius (Vahl) S. O. Grose e Handroanthus impetiginosus (Mart. Ex DC.) Mattos (Bignoniaceae). Brazilian Journal of Development, 8(5), 39721-39735. https://doi.org/10.34117/bjdv8n5-457 [ Links ]

Gu, I. Y. H., Andersson, H., & Vicen, R. (2010). Wood defect classification based on image analysis and support vector machines. Wood Science and Technology, 44(4), 693-704. https://doi.org/10.1007/s00226-009-0287-9 [ Links ]

Hafemann, L. G., Oliveira, L. S., & Cavalin, P. (2014). Forest species recognition using deep convolutional neural networks. 22 nd International Conference on Pattern Recognition, 2014, 1103-1107. https://doi.org/10.1109/ICPR.2014.199 [ Links ]

Hanssen, F., Wischnewski, N., Moreth, U., & Magel, E. (2011). Molecular Identification of Fitzroya cupressoides, Sequoia sempervirens, and Thuja plicata Wood Using Taxon-Specific RDNA-ITS Primers. IAWA Journal, 32(2), 273-284. https://doi.org/10.1163/22941932-90000057 [ Links ]

Ibrahim, I., Khairuddin, A. S. M., Abu-Talip, M. S., Arof, H., & Yusof, R. (2017). Tree species recognition system based on macroscopic image analysis. Wood Science and Technology, 51(2), 431-444. https://doi.org/10.1007/s00226-016-0859-4 [ Links ]

Khalid, M., Lew, E., Lee, Y. I., Yusof, R., & Nadaraj, M. (2008). Design of an intelligent wood species recognition system. International Journal of Simulation: Systems, Science & Technology, 9(3), 9-19. [ Links ]

Koch, G., & Haag, V. (2015). Control of internationally traded timber-the role of macroscopic and microscopic wood identification against illegal logging. Journal of Forensic Research, 6(6), 1000317. https://doi.org/10.4172/2157-7145.1000317 [ Links ]

Krizhevsky, A., Sutskever, I., & Hinton, G. (2012). Imagenet classification with deep convolutional neural networks. Communication of the ACM, 60(6), 84-90. https://doi.org/10.1145/3065386 [ Links ]

Kwon, O., Lee, H. G., Lee, M. R., Jang, S., Yang, S. Y., Park, S. Y., Choi, I. G., & Yeo, H. (2017). Automatic wood species identification of Korean softwood based on convolutional neural networks. Journal of the Korean Wood Science and Technology, 45(6), 797-808. https://doi.org/10.5658/WOOD.2017.45.6.797 [ Links ]

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. https://doi.org/10.1038/nature14539 [ Links ]

Lens, F., Liang, C., Guo, Y., Tang, X., Jahanbanifard, M., da Silva, F. S. C., Ceccantini, G., & Verbeek, F. J. (2020). Computer-assisted timber identification based on features extracted from microscopic wood sections. IAWA Journal, 41(4), 660-680. https://doi.org/10.1163/22941932-bja10029 [ Links ]

Livingston, S., & Risse, M. (2019). The future impact of artificial intelligence on humans and human rights. Ethics and International Affairs, 33(2), 141-158. https://doi.org/10.1017/S089267941900011X [ Links ]

Mata-Montero, E., Figueroa-Mata, G., Arias-Aguilar, D., Valverde-Otárola, J. C., Zamora-Villalobos, N., Paniagua-Bastos, J. C., & López-Aragón, S. (2020). Identificación automática de especies forestales maderables amenazadas de Costa Rica, mediante técnicas de visión artificial. TEC. https://hdl.handle.net/2238/13276Links ]

Morgenstern, L., & Mcilraith, S. (2011). John McCarthy's legacy. Artificial Intelligence, 175(1), 1-24. https://doi.org/10.1016/j.artint.2010.11.003 [ Links ]

Nouretdinov, I., Devetyarov, D., Vovk, V., Burford, B., Camuzeaux, S., Gentry-Maharaj, A., Tiss, A., Smith, C., Luo, Z., Chervonenkis, A., Hallett, R., Waterfield, M., Cramer, R., Timms, J. F., Jacobs, I., Menon, U., & Gammerman, A. (2015). Multiprobabilistic prediction in early medical diagnoses. Annals of Mathematics and Artificial Intelligence, 74(1-2), 203-222. https://doi.org/10.1007/s10472-013-9367-5 [ Links ]

Porcelli, A., & Martínez, A. (2020). Más allá de la ciencia ficción: la inteligencia artificial un aliado contra el COVID 19. Diario DPI, 57, 1-4. [ Links ]

Portugal, I., Alencar, P., & Cowan, D. (2015). The use of machine learning algorithms in recommender systems: a systematic review. Expert Systems with Applications, 97, 205-227. https://doi.org/10.1016/j.eswa.2017.12.020 [ Links ]

Rajagopal, H., Khairuddin, A. S. M., Mokhtar, N., Ahmad, A., & Yusof, R. (2019). Application of image quality assessment module to motion-blurred wood images for wood species identification system. Wood Science and Technology, 53(4), 967-981. https://doi.org/10.1007/s00226-019-01110-2 [ Links ]

Ravindran, P., Costa, A., Soares, R., & Wiedenhoeft, A. C. (2018). Classification of CITES-listed and other neotropical Meliaceae wood images using convolutional neural networks. Plant Methods, 14(1), 14-25. https://doi.org/10.1186/s13007-018-0292-9 [ Links ]

Ravindran, P., Ebanyenle, E., Ebeheakey, A., Abban, K., Lambog, O., Soares, R., Costa, A., & Wiedenhoeft, A. (2019). Image based identification of ghanaian timbers using the XyloTron: opportunities, risks and challenges. 33rd Conference on Neural Information Processing Systems, 2019, 1-10. [ Links ]

Ravindran, P., Thompson, B. J., Soares, R. K., & Wiedenhoeft, A. C. (2020). The XyloTron: flexible, open-source, image-based macroscopic field identification of wood products. Frontiers in Plant Science, 11, 1015. https://doi.org/10.3389/fpls.2020.01015 [ Links ]

Richter, H. G., & Dallwitz, M. J. (2019). Commercial timbers: descriptions, illustrations, identification, and information retrieval. https://Www.Delta-Intkey.Com/Wood/Es/Www/Mimcecat.Htm. [ Links ]

da Silva, R. N., De Ridder, M., Baetens, J. M., Van den Bulcke, J., Rousseau, M., Martinez, O., Beeckman, H., Van Acker, J., & De Baets, B. (2017). Automated classification of wood transverse cross-section micro-imagery from 77 commercial Central-African timber species. Annals of Forest Science, 74(2), 30. https://doi.org/10.1007/s13595-017-0619-0 [ Links ]

Siew, K. F., Tang, X. J., & Tay, Y. H. (2017). Improved convolutional networks in forest species identification task. Second International Workshop on Pattern Recognition, 10443, 104430C. https://doi.org/10.1117/12.2280616 [ Links ]

Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A., Lanctot, M., Sifre, L., Kumaran, D., Graepel, T., Lillicrap, T., Simonyan, K., & Hassabis, D. (2018). A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play. Science, 362(6419), 1140-1144. https://doi.org/10.1126/science.aar6404 [ Links ]

Simić, S., Banković, Z., Simić, D., & Simić, S. D. (2018). A hybrid clustering approach for diagnosing medical diseases. Hybrid Artificial Intelligent Systems, 10870(2018), 741-752. https://doi.org/10.1007/978-3-319-92639-1_62 [ Links ]

Tang, X. J., Tay, Y. H., Siam, N. A., & Lim, S. C. (2018). MyWood-ID: Automated macroscopic wood identification system using smartphone and macro-lens. ACM International Conference Proceeding Series, 2018, 37-43. https://doi.org/10.1145/3293475.3293493 [ Links ]

Turing, A. M. (1936). On computable numbers, with an application to the entscheidungs problem. Proceedings of the London Mathematical Society, 42(1), 230-265. [ Links ]

Vinyals, O., Babuschkin, I., Czarnecki, W. M., Mathieu, M., Dudzik, A., Chung, J., Choi, D. H., Powell, R., Ewalds, T., Georgiev, P., Oh, J., Horgan, D., Kroiss, M., Danihelka, I., Huang, A., Sifre, L., Cai, T., Agapiou, J. P., Jaderberg, M., … Silver, D. (2019). Grandmaster level in StarCraft II using multi-agent reinforcement learning. Nature, 575(7782), 350-354. https://doi.org/10.1038/s41586-019-1724-z [ Links ]

Yadav, A. R., Dewal, M. L., Anand, R. S., & Gupta, S. (2013). Classification of hardwood species using ANN classifier. 2013 Fourth National Conference on Computer Vision, Pattern Recognition, Image Processing and Graphics (NCVPRIPG), Jodhpur, India. https://doi.org/10.1109/NCVPRIPG.2013.6776231 [ Links ]

Yang, J., Huang, P., Dai, F., Sun, Y., Wang, L., & Bi, H. (2019). Application of Deep Learning in Wood Classification. 2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI), 2019, 124-129. https://doi.org/10.1109/CSEI47661.2019.8938960 [ Links ]

Ye, J. (2015). Improved cosine similarity measures of simplified neutrosophic sets for medical diagnoses. Artificial Intelligence in Medicine, 63(3), 171-179. https://doi.org/10.1016/j.artmed.2014.12.007 [ Links ]

Recibido: 03 de Agosto de 2022; Revisado: 24 de Abril de 2023; Aprobado: 10 de Agosto de 2023

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons