banner

Noticias

Oct 13, 2023

ACCT es una herramienta de recuento automático de células rápida y accesible que utiliza el aprendizaje automático para la segmentación de imágenes en 2D

Scientific Reports volumen 13, Número de artículo: 8213 (2023) Citar este artículo

470 Accesos

1 Altmetric

Detalles de métricas

Contar las células es una piedra angular del seguimiento de la progresión de la enfermedad en la neurociencia. Un enfoque común para este proceso es hacer que investigadores capacitados seleccionen y cuenten individualmente las celdas dentro de una imagen, lo que no solo es difícil de estandarizar sino que también requiere mucho tiempo. Si bien existen herramientas para contar automáticamente las celdas en las imágenes, la precisión y la accesibilidad de dichas herramientas se pueden mejorar. Por lo tanto, presentamos una herramienta novedosa ACCT: Recuento automático de células con segmentación entrenable Weka que permite un conteo automático flexible de células a través de la segmentación de objetos después del entrenamiento dirigido por el usuario. ACCT se demuestra con un análisis comparativo de imágenes disponibles públicamente de neuronas y un conjunto de datos interno de células de microglía teñidas con inmunofluorescencia. A modo de comparación, ambos conjuntos de datos se contaron manualmente para demostrar la aplicabilidad de ACCT como un medio accesible para cuantificar automáticamente las células de manera precisa sin necesidad de agrupaciones informáticas o preparación avanzada de datos.

La cuantificación de células en imágenes inmunofluorescentes ha sido durante mucho tiempo un paso limitante tanto en tiempo como en esfuerzo requerido para el análisis de datos microscópicos utilizados en la investigación. Estas técnicas selectivas de análisis de imágenes pueden proporcionar información fisiológica valiosa y los recuentos manuales realizados por profesionales capacitados se han presentado como el "estándar de oro" para la cuantificación1,2.

Aquí usamos conteos manuales completos de múltiples observadores separados para compararlos con una metodología de conteo automático de células. Tradicionalmente, un aspecto importante para mantener la consistencia en la cuantificación celular ha sido garantizar que un único observador cuente un conjunto de datos y se esfuerce por lograr la precisión y la reproducibilidad mientras, idealmente, ignora las condiciones experimentales. Esto limita enormemente la velocidad a la que se pueden procesar los datos de conteo de células, ya que los aumentos en la mano de obra no siempre se traducen en una mayor velocidad. El conteo manual puede tener problemas con la reproducibilidad y la consistencia en un conjunto de datos debido al error humano y la fatiga. Tales problemas se pueden evitar utilizando modelos computacionales que se mantengan consistentes sobre cualquier número de imágenes.

Para ese propósito, presentamos aquí ACCT: Recuento automático de células con segmentación entrenable de Weka (TWS) alojado en GitHub en https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git. TWS proporciona una base de aprendizaje automático para nuestra metodología accesible de recuento automático de células, con potencial adicional de procesamiento de imágenes proporcionado por scripts en ImageJ, Python y BeanShell3,4. El programa TWS proporciona una interfaz gráfica de usuario (GUI) para entrenar y aplicar un clasificador de aprendizaje automático que diferencia entre píxeles celulares y no celulares, que luego se agrupan en objetos celulares y se cuentan. ACCT se basa en esta segmentación de píxeles para proporcionar validación cuantitativa a nivel celular y ayudar en la selección y aplicación óptimas del clasificador (Fig. 1). ACCT procesa imágenes de un solo canal proporcionadas por los usuarios. Las imágenes con múltiples canales se pueden analizar utilizando copias de imágenes que muestran un canal a la vez y procesando conjuntos de imágenes para cada canal por separado.

En este estudio se utilizan dos conjuntos de datos para demostrar el rendimiento en diversos contextos de imágenes. El primer conjunto de datos utilizado está compuesto por imágenes de microglía en ratones con y sin condiciones que activan la inmunidad y la inflamación provocadas por la expresión transgénica de la proteína gp120 de la cubierta del virus de la inmunodeficiencia humana 1 (VIH-1)5. Este modelo de NeuroHIV (ratón HIVgp120tg) proporciona un resultado observable a partir de los recuentos manuales, un aumento de la microglía en presencia de HIVgp120 (en adelante, Activado) frente a la ausencia de la proteína viral (control de camada no transgénico, denominado Descansando). ACCT se utilizó para evaluar la diferencia en el número de células de microglía a partir de las imágenes representadas en la Fig. 2. Para que una metodología de conteo automático sea efectiva en un contexto experimental, debe poder acomodar la variabilidad en la presentación de datos resultante de las condiciones experimentales6. Se sabe que la microglía sufre cambios morfológicos durante la activación que alteran su morfología y apariencia cuando se obtienen imágenes mediante tinción inmunofluorescente7,8. Nos centramos en un conjunto de datos de imágenes de células marcadas con inmunofluorescencia para la proteína 1 adaptadora de unión al calcio ionizado (Iba-1), que es un marcador específico del tipo de célula y permite visualizar la microglía. Sin embargo, la metodología y los scripts que lo acompañan permiten la cuantificación automática de células en una amplia gama de contextos de imágenes.

El segundo conjunto de datos utilizado es un conjunto disponible públicamente de imágenes de neuronas teñidas con un marcador retrógrado monosináptico con un aumento de 200x (Fig. 3). Este conjunto de datos, al que nos referimos como conjunto de datos Fluocell, se utilizó en la generación de adiciones novedosas a la red neuronal U-net para la segmentación celular9,10. Por lo tanto, nuestro estudio prueba la validez de ACCT frente a otro conjunto de datos publicado.

La existencia de herramientas de software para su uso en las ciencias de la vida no conduce inherentemente a una mejora en la función11. El conocimiento técnico previo necesario para operar las nuevas herramientas de software de manera efectiva puede crear barreras para las metodologías novedosas en función de su accesibilidad. El objetivo de ACCT es reducir la barrera de entrada para la ejecución de estudios completos de imágenes semisupervisados. ACCT proporciona las herramientas para aprovechar la experiencia del usuario en la elaboración manual de datos de capacitación, al tiempo que proporciona herramientas cuantitativas para evaluar de manera eficiente la precisión de la capacitación desde una variedad de enfoques. Al reducir el conocimiento de programación requerido de los usuarios con elementos GUI, ACCT aumenta la accesibilidad del conteo automático de celdas. Además, ACCT realiza análisis estadísticos a partir de las imágenes contadas, reduciendo la carga de trabajo técnico y aumentando adicionalmente la accesibilidad de la herramienta.

Hay muchas maneras de abordar un problema de segmentación de imágenes. Este complejo problema se centra en asignar una etiqueta adecuada para cada píxel de una imagen. El programa TWS que utilizamos es solo una de varias herramientas de software, incluidas implementaciones de aprendizaje automático como Ilastik12 y redes neuronales como U-Net, ResUNet y c-ResUnet9,13,14.

Hemos optado por trabajar con TWS4 en lugar de Ilastik12 debido a la mayor variedad de funciones predeterminadas disponibles, así como a la integración con Fiji e ImageJ que agiliza el procesamiento y el análisis de imágenes automatizados. Esta integración con ImageJ hizo que TWS fuera más accesible para desarrollar esta y futuras herramientas automáticas de creación de imágenes.

Si bien programas como TWS e Ilastik brindan una excelente segmentación de píxeles con una interfaz accesible, existe una necesidad adicional de evaluar la precisión y el rendimiento a nivel de celda, en lugar de a nivel de píxel. ACCT proporciona un marco para que los usuarios logren esto con una manipulación mínima de archivos en la línea de comandos. La segmentación de Ilastik no prueba los modelos en una etapa de validación después del entrenamiento de su modelo de aprendizaje automático, lo que aumenta el riesgo de sobreajuste al conjunto de datos de entrenamiento. Por lo tanto, comparamos el rendimiento de Ilastik con ACCT en nuestro estudio.

Además, comparamos el rendimiento de ACCT con CellProfiler, que es una herramienta comúnmente utilizada para el análisis de imágenes que permite a los usuarios crear canalizaciones modulares15. Esta herramienta proporciona segmentación a nivel de píxel, aunque no proporciona recuento de células automatizado con modelos de aprendizaje automático sin su herramienta complementaria CellProfiler Analyst16. Sin embargo, CellProfiler Analyst requiere que los usuarios modifiquen manualmente los archivos de texto y de base de datos en SQL, lo que requiere el conocimiento de los editores de código por parte del usuario. Por esta razón, no lo comparamos con CellProfiler Analyst.

Finalmente, ResUNet es un enfoque de red neuronal convolucional (CNN) para la segmentación de imágenes y existe como una herramienta general para el etiquetado de imágenes. Se demostró que hace un uso eficaz de los datos de entrenamiento para realizar una segmentación de celdas precisa en imágenes con una gran variación en el número de celdas, así como la presencia de artefactos no celulares. Este es un desarrollo de U-Net, que ha demostrado ser efectivo en tareas de conteo de células a granel en una variedad de contextos. Además, c-ResUnet es una extensión de ResUNet9. Sin embargo, los modelos CNN requieren una alta potencia de procesamiento para generar resultados en un tiempo razonable, lo que puede requerir el acceso a costosos centros de cómputo. ACCT está diseñado para funcionar de manera eficiente en computadoras portátiles y computadoras de consumo disponibles en el mercado.

Una descripción visual de los componentes y el proceso de ACCT. (A) Weka y un conjunto de imágenes de entrenamiento se emplean para crear múltiples clasificadores a través del entrenamiento iterativo. (B) Estos clasificadores luego se evalúan en masa contra imágenes de validación y el usuario elige el mejor clasificador. (C) El clasificador elegido se aplica al conjunto de datos experimentales para la cuantificación celular, produciendo un conjunto de imágenes contadas y el número de celdas en cada imagen, así como información sobre la morfología celular. Esta información incluye el área, la posición, la intensidad mínima y máxima, la circularidad, el sesgo y más detalles sobre cada celda, disponible en GitHub en la sección de disponibilidad de datos.

Se generó un conjunto de datos compuesto por imágenes de células microgliales Iba-1 positivas siguiendo los procedimientos publicados recientemente por nuestro grupo17. En resumen, el conjunto de datos se derivó de secciones cerebrales de un modelo de lesión cerebral inducida por VIH (HIVgp120tg), que expresa la proteína gp120 soluble de la cubierta en astrocitos bajo el control de un promotor5 de GFAP modificado. Los ratones tenían antecedentes genéticos mixtos C57BL/6.129/SJL, y se seleccionaron dos genotipos de ratones macho de 9 meses: controles de tipo salvaje (en reposo, n = 3) y compañeros de camada transgénicos (HIVgp120tg, activado, n = 3). No se realizó aleatorización. Los ratones HIVgp120tg muestran, entre otras características de la neuropatología del VIH humano, un aumento en el número de microglia que indica la activación de las células en comparación con los controles de camada no transgénicos17. Todos los procedimientos y protocolos experimentales que involucran animales se realizaron de conformidad con las pautas de los Institutos Nacionales de Salud (NIH) y fueron aprobados por los Comités Institucionales de Cuidado y Uso de Animales (IACUC) del Instituto de Descubrimiento Médico Sanford Burnham Prebys (SBP), el Instituto de Investigación Scripps ( TSRI) y la Universidad de California Riverside (UCR). El estudio sigue las directrices ARRIVE.

Los procedimientos para la recolección de tejido cerebral, la tinción de inmunofluorescencia y la microscopía de microglía se han descrito en una publicación reciente de nuestro grupo17. En resumen, los ratones se anestesiaron terminalmente con isoflurano y se perfundieron transcardiacamente con solución salina \(0,9\%\). Los cerebros de los ratones se extrajeron y se fijaron durante 72 horas en \(4^{\circ }\hbox {C}\) en \(4\%\) paraformaldehído17. Las secciones del cerebro se obtuvieron usando un vibratomo (Leica VT1000S, Leica Biosystems, Buffalo Grove, IL) y la corteza cerebral en secciones sagitales de 40 \(\upmu \hbox {m}\) de espesor espaciadas 320 \(\upmu \hbox {m}\ ) separados de medial a lateral de los cerebros de cada genotipo. La tinción se realizó con IgG (1:125; Wako) IgG (1:125; Wako) de molécula adaptadora de unión a calcio anti-ionizado de conejo 1 (Iba-1) con isotiocianato de fluoresceína como anticuerpo secundario (FITC). Para la cuantificación de la microglía teñida con Iba-1, se contaron los cuerpos celulares en la corteza cerebral desde tres campos de visión para tres secciones cada uno por animal. Se recogieron entre 2 y 3 imágenes por campo de visión para capturar tantas células como fuera posible en un enfoque suficiente para la identificación. La microscopía se realizó con un microscopio de deconvolución de fluorescencia Zeiss 200 M con una platina 3D controlada por computadora y un filtro FITC. Todas las imágenes se recopilaron utilizando el software Slidebook (versión 6, Intelligent Imaging Innovations, Inc., Denver, CO). Las imágenes se adquirieron con un aumento de 10X y una resolución de píxeles de 1280x1280 y se recortaron en un área de 1280x733 píxeles para excluir los bordes irregulares del tejido. Los ejemplos representativos se muestran en la Fig. 2.

Imágenes de microglía marcada con inmunofluorescencia antes y después de la segmentación. Un ejemplo de imágenes emparejadas procesadas de microglía inmunomarcada con Iba-1 en la corteza cerebral (capa III; panel superior) de ratones de tipo salvaje, no transgénicos ("en reposo") y HIVgp120tg ("activados"), y la segmentación final que lo acompaña imágenes generadas a través de ACCT (panel inferior). Las segmentaciones de objetos resultantes están codificadas por colores (azul = verdadero positivo, rojo = falso positivo, amarillo = falso negativo). Los objetos segmentados de imágenes en el mismo campo de visión se proyectaron con una exclusión de tamaño mínima de 50 píxeles para contar. La tinción de inmunofluorescencia y la adquisición de imágenes se describen en publicaciones anteriores y en la Sección de Métodos17. Barra de escala: 100 \(\mu m\).

Los conteos manuales fueron realizados por tres observadores, a quienes se les permitió ajustar el brillo de la imagen para facilitar mejor la precisión del conteo. Las imágenes se recopilaron como una pila Z que constaba de dos o tres planos de enfoque con una separación de 0,5 \(\upmu \hbox {m}\) por campo para permitir que el observador confirmara la presencia de cuerpos celulares positivos para Iba-1 que estaban sólo parcialmente en foco. El plano que mostraba la mayoría de las células enfocadas se utilizó como plano principal para el recuento. Los observadores utilizaron diferentes programas de visualización durante el conteo. El observador A usó el software Slidebook (Intelligent Imaging Innovations, Denver, CO) combinado con el microscopio y los observadores B y C usaron la distribución de Fiji de ImageJ 2.1.0 para el conteo manual. Además, el conteo del observador A se realizó antes del inicio de este proyecto, y se colocaron marcadores de conteo en las imágenes muy cerca de los cuerpos celulares para una suma total rápida. El observador B y C colocaron recuentos dentro de los cuerpos celulares para permitir una evaluación posterior de la precisión a nivel celular. Los recuentos de microglía se normalizaron al área en los casos en que una parte del área de la imagen no era adecuada para la detección de células, debido al daño tisular o a la irregularidad del grosor (n = 3 imágenes de un total de 62 en estudio).

Imagen de neuronas marcadas con fluorescencia antes y después de la segmentación. Una imagen recortada tomada del conjunto de datos de Fluocell junto con la segmentación de celdas (a). Esto representa objetos de celda segmentados de la imagen \(\hbox {MAR38S1C3R1}\_\hbox {DMR}\_20\_\hbox {o}\) informados en el conjunto de datos de Fluocell disponible públicamente segmentados por c-ResUnet10 (b) y ACCT con clasificador Bayes3 (c). Las segmentaciones de objetos resultantes están codificadas por colores (azul = verdadero positivo, rojo = falso positivo, amarillo = falso negativo). ACCT se configuró para filtrar objetos de menos de 250 píxeles y más de 5000 píxeles para eliminar el ruido. Aplicamos el algoritmo de cuenca hidrográfica a este conjunto de datos. ACCT identificó correctamente el 84,6 % de los recuentos de manos en esta imagen y c-ResUnet el 86,2 %, mientras que ACCT acertó con el 86,9 % de todas las predicciones y c-ResUnet con el 93,3 %. Barra de escala: 50 \(\mu m\).

Para examinar y desarrollar aún más la eficacia de ACCT en una variedad de datos, también realizamos un estudio de conteo de células utilizando un conjunto de imágenes disponible públicamente9,10. Las 283 imágenes de 1600x1200 píxeles se tomaron con un aumento de 200x de 35 \(\upmu \hbox {m}\) rebanadas gruesas de tejido cerebral de ratón con neuronas teñidas a través de un marcador retrógrado monosináptico (Colera Toxin b, CTb). Este marcador destacó solo las neuronas conectadas al sitio de inyección de la toxina.

Este conjunto de datos contiene imágenes con densidad de celdas alta y baja, así como cantidades variables de ruido y artefactos (Fig. S2 complementaria). También observamos que muchas imágenes contienen celdas superpuestas o que se tocan. El conjunto de datos de Fluocell presenta diferentes desafíos en comparación con nuestro conjunto de datos de microglía positiva Iba-1, donde las células se distribuyen de manera más uniforme y la cantidad de células por imagen es más consistente. En la Fig. 3 se muestra un ejemplo representativo de los datos de Fluocell.

En el análisis de Fluocell de estos datos, los autores contaron manualmente un subconjunto de las imágenes, y las imágenes restantes se contaron mediante un umbral automático9. Dado que deseamos comparar ACCT con recuentos de células colocados por humanos como etiquetas de verdad en el suelo para evaluar el rendimiento de nuestra herramienta frente al recuento de células humanas, contamos manualmente todo el conjunto de datos de 283 imágenes (un observador). Esto nos permite validar nuestra herramienta contra recuentos de células de observadores manuales en lugar de otro proceso automático. Además, los autores del conjunto de datos de Fluocell escribieron su propio programa de conteo de células automatizado utilizando un enfoque de CNN llamado c-ResUnet que se basa en ResUNet9. Por lo tanto, también comparamos el rendimiento de ACCT frente a c-ResUnet e Ilastik en el conjunto de datos de Fluocell con nuestros recuentos manuales. Reconocemos que es posible generar mejores clasificadores para Ilastik y CellProfiler para nuestro conjunto de datos, sin embargo, mantenemos que estos programas carecen de la funcionalidad para que los usuarios generen y evalúen múltiples clasificadores a gran escala. Por lo tanto, generamos menos clasificadores para estos programas y seleccionamos el clasificador óptimo durante el entrenamiento.

ACCT es de código abierto, disponible en GitHub en https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git. Nuestro clasificador de aprendizaje automático se creó utilizando el complemento TWS versión 3.2.34 en ImageJ 2.1.0 incluido en la distribución de Fiji18. Además, los paquetes Python de código abierto: scipy, pandas, numpy, matplotlib, imageio y scikit-learn se utilizaron en ACCT19,20,21,22,23,24.

ACCT permite la selección de varios tipos diferentes de enfoques de aprendizaje automático. El aprendizaje automático aquí se refiere a modelos dinámicos entrenados en datos de entrada especificados por el usuario para seleccionar píxeles de celda dentro de una imagen. Los usuarios también pueden cargar enfoques de aprendizaje automático adicionales compatibles con Weka si lo desean. Para este artículo, utilizamos una implementación del enfoque Random Forest, llamada Fast Random Forest4,25. Este es el enfoque de aprendizaje automático predeterminado en TWS y se utilizaron las siguientes características predeterminadas:

desenfoque gaussiano

filtro sobel

arpillera

Diferencia de gaussiana

Proyecciones de membrana

Grosor de la membrana = 1

Tamaño del parche de membrana = 19

sigma mínimo = 1,0

Sigma máximo = 16,0

Además, utilizamos un modelo de red bayesiana, que también se implementa en Weka4. Este enfoque, llamado BayesNet, sigue un modelo estadístico bayesiano para determinar la probabilidad de que las características observadas sean condicionalmente dependientes o causadas por el objeto de interés26. Para este estudio, utilizamos los siguientes parámetros para la clasificación de píxeles bayesianos, además de las características enumeradas anteriormente:

Diferencia

Significar

Mínimo

Máximo

Mediana

Difusión anisotrópica

Bilateral

Lipschitz

Kuwahara

gabor

entropía

vecinos

Durante la detección de células, los procesos o artefactos celulares pequeños y grandes pueden clasificarse como cuerpos celulares con una apariencia lo suficientemente similar a las células. Abordamos este ruido implementando un parámetro de tamaño de objeto de celda mínimo y máximo al contar celdas. Por lo tanto, los objetos fuera del rango de tamaño especificado se excluyen del conteo automático. Este rango está determinado empíricamente por los cuerpos celulares observados durante el entrenamiento y la validación del modelo.

Un desafío adicional para la detección de células es cuando dos o más células lindan o se superponen. Esto hace que varias celdas se identifiquen como una celda grande, por lo que ACCT debe separar estos objetos para aumentar la precisión. Por lo tanto, opcionalmente habilitamos un algoritmo de cuenca hidrográfica posterior a la segmentación de píxeles27. Este algoritmo se utiliza para separar objetos por contorno, lo que permite que los objetos separados se cuenten de forma independiente. Usamos la implementación predeterminada del algoritmo de cuenca hidrográfica proporcionado en ImageJ27. Utilizamos la estrategia de segmentación de cuencas hidrográficas en el conjunto de datos de Fluocell que tenía celdas estrechamente agrupadas y comparamos el rendimiento de ACCT con y sin cuencas hidrográficas para demostrar el efecto del algoritmo en la Fig. S3 complementaria.

Los modelos de aprendizaje automático en TWS generan un mapa de probabilidad para cada imagen que es una representación de cada píxel de la imagen como la probabilidad de que forme parte de un objeto de interés. Esta probabilidad se compara con un umbral de confianza, que es la probabilidad mínima que debe tener un píxel para ser considerado parte de un objeto. El usuario puede establecer diferentes valores de umbral, lo que afecta cuán conservador o liberal será el programa en la identificación de objetos. De forma predeterminada, ACCT comienza en un umbral de 0,5 que los usuarios pueden modificar a través de la interfaz de usuario. Convencionalmente, los umbrales más estrictos conducen a menos falsos positivos pero también a menos verdaderos positivos. Lo contrario también se cumple con un umbral más relajado que identifica más verdaderos positivos, pero también más falsos positivos. El rendimiento de ACCT en varios umbrales se representa visualmente en una curva característica del operador del receptor (ROC). Sin embargo, algunos modelos que se pueden usar con TWS en ACCT solo dan un cero o uno binario para sus valores de confianza, lo que impide la generación de curvas ROC significativas.

El entrenamiento en el conjunto de datos de microglía Iba-1 se extrajo de 10 imágenes seleccionadas al azar que no se usaron en el análisis de conteo. Estas imágenes se recopilaron utilizando los métodos descritos anteriormente de ratones distribuidos por igual entre los genotipos experimentales (Fig. 2). Notamos que ACCT actualmente solo puede manejar imágenes de un solo canal, en lugar de imágenes de múltiples canales. Los ajustes incrementales a los datos de entrenamiento y la clasificación de píxeles cambiante resultante se observaron en tiempo real y los clasificadores se guardaron secuencialmente.

Para evitar el sobreentrenamiento, los clasificadores se actualizan unos pocos píxeles a la vez con nuevos datos de entrenamiento y las segmentaciones de píxeles actualizadas en los datos de entrenamiento se observan inmediatamente en TWS. Los datos de entrenamiento posteriores se seleccionan para abordar áreas de segmentación incorrecta. Continuamos con iteraciones sucesivas de clasificadores, guardando una versión del clasificador después de cada adición de datos de entrenamiento. Este esquema de creación de clasificador iterativo continúa hasta que el clasificador no parece estar mejorando los datos. ACCT luego realiza una evaluación de precisión en los datos de validación y los marcadores de verdad en el terreno, teniendo en cuenta las condiciones experimentales, para ayudar al usuario a seleccionar la iteración del clasificador con la mayor precisión y consistencia en todo el conjunto de datos de validación.

Esta estrategia se aplicó para crear múltiples clasificadores secuenciales que posteriormente se aplicaron al conjunto de datos de validación (Fig. 1, Fig. S1 complementaria). Finalmente, se entrenaron 25 clasificadores secuenciales con los datos de la microglía Iba-1. El conjunto de datos de validación de microglía Iba-1 estaba compuesto por 10 imágenes (en reposo n = 5, activadas n = 5) del conjunto de datos principal que luego se excluyó de todos los análisis posteriores. El observador B colocó marcadores de recuento específicos de la ubicación del cuerpo celular en estas imágenes, y el rendimiento se calculó a través de la precisión, recuperación, puntuación F1, precisión, así como una prueba T de Student de precisión diferencial entre las imágenes en reposo y activadas. ACCT también puede realizar cálculos ANOVA para análisis adicionales que incluyen más de dos grupos experimentales.

En los datos de Fluocell, se seleccionaron 10 imágenes de entrenamiento del conjunto de datos para representar la variedad de desafíos de segmentación dentro del conjunto de datos: intensidad muy variable, densidad celular muy variable, imágenes de células superpuestas e imágenes con artefactos no celulares. El conjunto de datos de validación se realizó con un conjunto diferente de 10 imágenes seleccionadas para representar una distribución similar de desafíos.

Las puntuaciones positivas verdaderas para cada imagen se determinan mediante la localización de marcadores de conteo manual que se comparan con los valores de ubicación de píxeles de cada objeto para el proceso de conteo automático. Los falsos positivos para cada imagen se representan como el número total de objetos de celda generados automáticamente que no contienen un solo recuento manual. Los falsos negativos para cada imagen están determinados por el número total de marcadores de conteo manual que no están contenidos dentro de un objeto generado automáticamente por el programa, más el número de marcadores de conteo manual dentro de un objeto de una sola celda en exceso de uno, lo que indica un objeto insuficiente separación. Como evaluamos la precisión en función de la ubicación de las celdas y no diferenciamos entre los píxeles de fondo, ACCT no incluye la determinación de ubicaciones de celdas negativas verdaderas. Esta metodología fue utilizada en Morelli et al.9, y calculamos la precisión como \(\frac{TP}{TP + FP + FN}.\)

Evaluamos el rendimiento de nuestros clasificadores utilizando medidas de precisión, recuperación, puntaje F1 y exactitud. La precisión es la proporción de recuentos automáticos que son correctos en función de los marcadores colocados manualmente, y la recuperación es la proporción del total de marcadores de celda colocados manualmente que se identificaron correctamente mediante el recuento automático. La puntuación F1 es el promedio armónico de precisión y recuperación. La precisión se evalúa específicamente como el número de recuentos de células positivos verdaderos como proporción de todos los recuentos manuales y automáticos, incluidos los falsos negativos. Se pueden evaluar múltiples clasificadores a través de análisis estadísticos calculados automáticamente. Las medidas estadísticas, como el error absoluto medio (MAE), se calculan adicionalmente a través de ACCT para evaluar el rendimiento de diferentes clasificadores. Utilizamos estas estadísticas para evaluar el rendimiento de ACCT frente a otras herramientas automáticas de recuento de células basadas en estas métricas.

Esta información estadística se muestra en las Figs. 4 y 9. La Figura 4 es un subconjunto de los datos completos que se pueden encontrar en la Tabla complementaria 1. La Figura 9 muestra estadísticas de precisión seleccionadas en diferentes umbrales de confianza. La selección del clasificador a través de la mejor puntuación F1 o diferentes ponderaciones de precisión y recuperación son métricas válidas para seleccionar un clasificador. Sin embargo, para este estudio hemos seleccionado el clasificador basado en la puntuación F1 más alta.

Resumen del rendimiento del clasificador individual en el conjunto de datos de microglía Iba-1 durante la etapa de validación. Un gráfico de los tres clasificadores entrenados de forma incremental más y menos precisos, clasificados según la puntuación F1 de 25 clasificadores entrenados (n = 10 imágenes). Las barras de error representan el error estándar de la media en las estadísticas de rendimiento calculadas de cada imagen, donde la estadística en sí se calcula a partir del total de celdas en el conjunto de datos. Los parámetros utilizados en ACCT: umbral de 0,5, tamaño de píxel mínimo de 50 y tamaño de píxel máximo de 1000.

Como siguiente paso, el clasificador seleccionado se aplica al conjunto de datos experimental de imágenes. Este conjunto de datos experimentales excluye las imágenes utilizadas en el entrenamiento y la validación. La metodología de conteo automatizado se repite en este análisis e informa el número total de células contadas además de otra información estadística por imagen. La información morfológica sobre cada célula identificada es reportada por ACCT a los usuarios. Un ejemplo de esto se puede encontrar en la Tabla complementaria 2, que enumera parte de la información morfológica reportada generada a partir del análisis.

Además, tenemos la opción para que los usuarios auditen el rendimiento de su clasificador seleccionado. La auditoría requiere un conteo manual adicional y es idéntica a cómo evaluamos el desempeño de los clasificadores durante la etapa de validación. Este paso tiene como objetivo determinar qué tan similar se desempeñó el clasificador en el conjunto de datos experimentales en comparación con el conjunto de validación en situaciones en las que no se contaron manualmente todas las imágenes. La auditoría se puede realizar usando un subconjunto del conjunto de datos experimentales, o incluso el conjunto de datos completo, si el usuario elige completar un conteo manual completo para evaluar la precisión del modelo. Estas imágenes se conocen como el conjunto de auditoría. Seleccionamos aleatoriamente 5 imágenes de cada una de las imágenes experimentales de microglía activada y en reposo para el conjunto de auditoría Iba-1. Se realizó una auditoría de los datos de Fluocell en una muestra de 10 imágenes del conjunto de datos experimentales de Fluocell (Fig. 5).

Todas las pruebas estadísticas en imágenes de microglía Iba-1 incluyen todas las imágenes excepto las utilizadas para entrenamiento y validación (Reposo n = 22, Activado n = 20). Informamos el recuento automático del clasificador 10 en lugar del clasificador 4 porque el clasificador 10 proporcionó el máximo rendimiento en el conjunto de datos experimentales y el conjunto de auditoría que observamos. El aumento significativo en la densidad de la microglía en las imágenes de ratones gp120 positivos (activados) fue consistente en todo el conjunto de datos a través de ANOVA de dos vías (\(\hbox {p} = 3.39E^{-16}\); n en reposo = 22, n activado = 20) (Fig. 6).

Teniendo en cuenta la variación del genotipo dentro del conjunto de datos, no se encontraron diferencias significativas entre el recuento ACCT y los observadores (Observador A p = 0,060; Observador B p = 0,514; Observador C p = 0,440). Además, la densidad de microglía por imagen demostró correlaciones significativas entre el conteo automático y todos los observadores con correlaciones más fuertes en las imágenes de microglía en reposo (Fig. 5).

Lo siguiente representa los conteos totales de celdas:

Validación: Observer A/B 1263/1380 celdas sobre 10 imágenes.

Conjunto de datos experimental: Observador A/B/C 5158/5035/5056 celdas en 42 imágenes.

Conjunto de auditoría: Observador A/B/C 1239/1207/1262 celdas en 10 imágenes.

Análisis de correlación de diagramas de dispersión de densidad microglial con líneas de regresión para todas las comparaciones correlativas entre los recuentos de observadores y el recuento automático del clasificador 10 para el conjunto de datos experimental. Todas las relaciones mostraron correlaciones globales significativas y positivas (p y Adj. \(R^{2}\) = valores incluidos en las figuras; \(\hbox {n}=42\)).

Densidad media de microglia por genotipo experimental en recuentos manuales y automatizados. Todos los métodos de conteo encontraron un aumento en la densidad de microglía en imágenes de microglía activada mediante ANOVA bidireccional con efecto de interacción y análisis post-hoc Tukey HSD. La diferencia entre el método de conteo y el efecto de interacción no mostró significancia estadística. (Genotipo: p = \(3.39E^{-16}\); Método de conteo: p = 0.096; Genotipo: Método de conteo: p = 0.224; En reposo n = 22, Activado n = 20). No hubo diferencias significativas entre el conteo automático y el observador B y C. Sin embargo, la densidad de conteo ACCT tendió a ser más baja en general que la del observador A (p = 0,0599; en reposo n = 22, activado n = 20). Esto sugiere que el clasificador 10 puede haber excluido algunas células débilmente teñidas o mal enfocadas en las imágenes del grupo en reposo que el observador A sí contó. Las barras de error representan la desviación estándar.

La precisión general y la recuperación logradas por la metodología TWS fueron similares en el conjunto de datos de validación, el conjunto de datos experimentales y el conjunto de datos de auditoría con precisión general y F1 aumentó en el conjunto de datos experimentales en comparación con la validación, como se muestra para el clasificador 10 en la Fig. 7. Sin embargo, dentro del En el conjunto de datos experimentales, el clasificador TWS fue más conservador en las imágenes en reposo en comparación con los recuentos manuales del observador B, y el recuento automático tuvo mayor precisión en las imágenes en reposo que en las muestras activadas (precisión p = 0,007477) (Fig. 7). En comparación con Ilastik y CellProfiler, ACCT tuvo un rendimiento similar y ligeramente más fuerte que ambas herramientas en cada conjunto de imágenes Iba-1, con Ilastik superando ligeramente a CellProfiler. Además, comparamos estas herramientas con la funcionalidad básica que los usuarios pueden seleccionar manualmente en Fiji, para ilustrar cómo ACCT se basa en la funcionalidad existente de Fiji. Usamos las herramientas de restar fondo con bola rodante, ajustar umbral en Fiji para este análisis, con resta de fondo en un área de 25 píxeles y un umbral de intensidad de píxeles de 90. Sin aplicar el tamaño mínimo y máximo del objeto, este análisis dio como resultado una precisión cercana a 0, por lo que usamos un mínimo de 50 y un máximo de 1000 píxeles como en las otras herramientas. Classifier 10 supera a las herramientas básicas de Fiji en la mayoría de las métricas, excepto en la precisión. La aplicación básica de Fiji también supera por poco a Ilastik y CellProfiler en la mayoría de las métricas de las imágenes Iba-1.

ACCT vs Ilastik vs CellProfiler vs Basic Fiji en imágenes de microglía Iba-1 positiva. El rendimiento del clasificador ACCT 10 frente a Ilastik, CellProfiler y el uso básico de las herramientas de Fiji. El conjunto de auditoría es una selección de 10 imágenes, que es igual al tamaño del conjunto de imágenes de validación, elegidas del conjunto de datos experimentales y distribuidas uniformemente entre los grupos experimentales. Las barras de error representan el error estándar de la media en las estadísticas de rendimiento calculadas de cada imagen, donde la estadística en sí se calcula a partir del total de celdas en el conjunto de datos. Los parámetros utilizados por ACCT en este análisis fueron: un umbral de 0,5, un tamaño de píxel mínimo de 50 y un tamaño de píxel máximo de 1000 para los objetos.

En contraste con el conjunto de datos de microglia Iba-1, el conjunto de datos de Fluocell no compara dos condiciones experimentales diferentes. Todas las pruebas estadísticas de Fluocell incluyen todas las imágenes de Fluocell, excepto las que se utilizan en el entrenamiento y la validación (n = 263). En la Fig. 8, comparamos el rendimiento de los modelos Fast Random Forest y BayesNet implementados dentro de ACCT versus c-ResUnet, Ilastik y el uso básico de Fiji9,12. La Figura 8 muestra que ClassifierRandomForest3 supera a BayesNet en la mayoría de las métricas estadísticas. Además, el modelo c-ResUnet superó en la mayoría de las métricas en comparación con estos dos clasificadores. En contraste con las otras herramientas, Ilastik tiene mucho más recuerdo que precisión en los conjuntos de datos experimentales y de auditoría, con ACCT y c-ResUnet superando en precisión. Sin embargo, Ilastik tiene la mayor puntuación de F1 en el conjunto de datos experimentales. La metodología básica de Fiji luchó de la misma manera que los otros clasificadores, con mayor precisión y poca recuperación, proporcionó una precisión comparable a los clasificadores ACCT en el conjunto de datos experimental. Para Fiji básico, usamos la sustracción de fondo en un área de 50 píxeles y un umbral de intensidad de píxeles de 70. En el contexto de este conjunto de datos, lo siguiente representa el recuento total de celdas:

Validación: 137 celdas sobre 10 imágenes.

Conjunto de datos experimental: 3307 celdas sobre 263 imágenes.

Conjunto de auditoría: 247 celdas en 10 imágenes.

ACCT vs c-ResUnet vs Ilastik vs Basic Fiji en el conjunto de datos Fluocell. ClassifierRandomForest3 y ClassifierBayes3 son las terceras iteraciones entrenadas de un modelo Fast Random Forest y BayesNet en ACCT, respectivamente. Los conteos automáticos de las tres herramientas de las imágenes de Fluocell y el uso básico de las herramientas de Fiji se comparan con nuestro conteo manual del conjunto de datos de Fluocell. Las barras de error representan el error estándar de la media en las estadísticas de rendimiento calculadas de cada imagen, donde la estadística en sí se calcula a partir del total de celdas en el conjunto de datos. El conjunto de auditoría es una selección de 10 imágenes, que es igual al tamaño del conjunto de imágenes de validación, elegido del conjunto de datos experimental. Los parámetros utilizados son: un umbral de 0,5, un tamaño de píxel mínimo de 250, un tamaño de píxel máximo de 5000 y con el algoritmo de cuenca aplicado.

ACCT genera automáticamente curvas ROC para cada clasificador entrenado. Esto visualiza las compensaciones entre precisión y recuperación, así como la tasa de verdaderos positivos y la tasa de falsos positivos. La Figura 9 muestra una curva ROC del clasificador 10 ACCT aplicado al conjunto de datos de microglía Iba-1. El umbral representa la probabilidad requerida del clasificador para determinar si un píxel será designado como píxel de celda. Los datos representados en estos gráficos se generaron utilizando la biblioteca Python scikit-learn que realizó análisis estadísticos24.

Una curva ROC generada por ACCT después de la etapa de validación en imágenes de microglia Iba-1. Representa las tasas de falso positivo, verdadero positivo, recuperación y precisión del clasificador 10 en diferentes umbrales de confianza en las imágenes de microglía teñidas con Iba-1. Los objetos se filtraron a un tamaño mínimo de 50 píxeles y un tamaño máximo de 1000 píxeles. El algoritmo de cuenca hidrográfica no se aplicó al conjunto de datos Iba-1, debido a la separación constante de células en los tejidos de muestra.

La Figura 9 demuestra la compensación en la que la tasa de falsos positivos disminuye a un ritmo más rápido que la tasa de verdaderos positivos cuando se aplica un umbral más alto. Por ejemplo, aumentar el umbral para la segmentación de píxeles en el conjunto de datos Iba-1 redujo la tasa de falsos positivos en comparación con el valor predeterminado de 0,5. En este estudio, se utilizó el umbral de 0,5 para los cálculos informados, ya que la precisión general no aumentó debido a una disminución en las identificaciones de células positivas verdaderas.

ACCT es un paso hacia herramientas informáticas más accesibles para el recuento de células y la segmentación de imágenes. La principal ventaja actual de esta estrategia es el menor tiempo requerido para entrenar y aplicar la estrategia de conteo automático en comparación con el conteo manual de cada imagen. Nuestro estudio demuestra la aplicabilidad general de esta herramienta para explorar rápidamente grandes cantidades de datos.

El proceso de formación es fundamental para el éxito de esta metodología de recuento automático de células y se basa en el conocimiento específico del investigador sobre el tipo de célula de la imagen. Cada conjunto de imágenes viene con su propio conjunto único de desafíos debido a la variabilidad en las características de las celdas y los medios, por lo que proporcionar datos de entrenamiento precisos requiere una comprensión firme y consistente de las imágenes en cuestión. ACCT puede ayudar a los usuarios a ajustar estas características en sus imágenes. Los usuarios pueden seleccionar características específicas para analizarlas en sus modelos de aprendizaje automático seleccionados para representar mejor sus datos de imagen. Dado que cada usuario tiene datos diferentes, esta flexibilidad adicional mejora la capacidad de ACCT para analizar imágenes específicas de los usuarios.

Los resultados demuestran que estos ACCT funcionan mejor en cuanto a precisión, lo que indica que la mayoría de las celdas "llamadas" eran celdas reales. La recuperación tiende a ser sustancialmente más baja que la precisión, lo que lleva a una disminución de las puntuaciones F1 y la precisión en todos los clasificadores ACCT probados en estos conjuntos de datos. Esto indica que estos modelos tienden a ser más conservadores que los conteos manuales expertos. Sin embargo, los resultados indican que cuando los modelos clasifican un objeto como una celda, tienden a ser correctos en base a la alta precisión.

Además, el análisis de densidad de microglia en la Fig. 6 y en la Fig. 5 demuestra que ACCT cuenta las células de manera similar a los observadores expertos. Los recuentos de todos los observadores identificaron una diferencia media similar en la densidad de microglia entre los genotipos experimentales. ACCT se correlaciona fuertemente con los resultados del conteo de células humanas y puede replicar la diferencia entre las condiciones experimentales de manera similar al conteo manual. Por lo tanto, es una herramienta útil para el análisis de imágenes entre múltiples condiciones experimentales.

Reconocemos que en el futuro es probable que surjan herramientas de recuento automático de células más precisas a partir de ACCT u otros paquetes de software. Sin embargo, actualmente ACCT muestra un sólido rendimiento al tiempo que es una herramienta más accesible para los investigadores que todos los enfoques que requieren grandes redes informáticas o clústeres informáticos. En algunos casos, ACCT supera a otras herramientas de conteo de celdas, pero no en todos los conjuntos de datos. Sin embargo, los usuarios pueden considerar que vale la pena cambiar la accesibilidad en el entorno ImageJ y la velocidad de ACCT por la ligera pérdida de rendimiento en algunos conjuntos de datos de imágenes.

En términos de potencia computacional, todo el trabajo se realizó en computadoras portátiles de consumo disponibles en el mercado, como una Dell Inspiron 15-7559 (lanzada en febrero de 2017). Otras herramientas automáticas de conteo de células a menudo están diseñadas para hacer uso de grandes recursos computacionales. Por ejemplo, Morelli et al. usó 4 GPU V100 para procesar su enfoque CNN9. Las herramientas basadas en CNN recomiendan usar un clúster o red de varias computadoras, lo que permite acceder a una mayor potencia computacional. Sin embargo, los clústeres de computadoras no están disponibles para todos los investigadores y, además, pueden requerir el conocimiento de las líneas de comando para una utilización efectiva. ACCT no está limitado por especificaciones informáticas sustanciales, además, es más accesible para investigadores menos orientados a la línea de comandos.

Los resultados reproducibles son una preocupación importante en la investigación científica, y garantizar la reproducibilidad mediante el recuento manual de células puede resultar costoso y llevar mucho tiempo. Dado que ACCT almacena clasificadores como archivos de modelos únicos, son fáciles de compartir y descargar. Por lo tanto, los investigadores pueden compartir resultados reproducibles y análisis estadísticos de un estudio de conteo de células al compartir el archivo del modelo y el conjunto de imágenes analizadas. Dado que el análisis generado por ACCT se almacena como archivos editables en Excel, es fácil para los usuarios compartir y comunicar sus resultados.

Construir ACCT alrededor de la interfaz gráfica implementada por TWS amplía la usabilidad al proporcionar una infraestructura para la validación y aplicación de clasificadores cuantitativos en un contexto experimental completo en el aparato de entrenamiento flexible e intuitivo4. Dado que ACCT hace uso de las herramientas existentes para el análisis de imágenes celulares como TWS, a los investigadores familiarizados con el programa también les resultará más fácil aprender a usar ACCT.

ACCT incluye documentación accesible, con un manual de instrucciones que explica la función y el uso del programa que se encuentra en su página de GitHub. La documentación es importante para que los usuarios comprendan y aprendan a utilizar las herramientas de software. Muchas otras herramientas de software documentan las funciones de sus componentes dentro de la propia herramienta, lo que requiere que los usuarios naveguen por el código para comprender y utilizar la herramienta. Esto se evita al tener instrucciones detalladas escritas en el sitio web de ACCT que explican el uso de la herramienta sin requerir que los usuarios accedan manualmente al código en sí.

ACCT también podría aplicarse de manera más general a los problemas de segmentación de imágenes. Si bien el enfoque de nuestro estudio está en el conteo de células en el contexto de la neurociencia, siempre que una imagen tenga características de objeto que se puedan separar de su fondo, ACCT puede cuantificar los objetos. Sin embargo, las formas de objetos más complejas y los fondos menos distintivos pueden requerir la selección de modelos más complejos que los demostrados en este estudio. Proporcionamos un ejemplo simple de esto en la figura complementaria S4 utilizando el modelo Fast Random Forest, que es una imagen segmentada para edificios contra un campo28. Si bien no es tan distinto como las células, demuestra que ACCT es aplicable más allá del contexto biológico. En general, ACCT debería aumentar en gran medida la accesibilidad del análisis automático que involucra el conteo de células para una amplia audiencia en la investigación de neurociencias y más allá.

El conjunto de datos de Iba-1, su análisis y el análisis del conjunto de datos de Fluocell durante el estudio actual están disponibles en ACCT-Data-Repository, https://github.com/tkataras/ACCT-Data-Repository.git. El conjunto de datos de Fluocell analizado está disponible públicamente según lo publicado en http://amsacta.unibo.it/6706/.

Se puede acceder y descargar ACCT desde GitHub en https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git.

von Bartheld, CS, Bahney, J. y Herculano-Houzel, S. La búsqueda del número real de neuronas y células gliales en el cerebro humano: una revisión de 150 años de recuento celular. J.Comp. Neurol. 524, 3865–3895. https://doi.org/10.1002/cne.24040 (2016).

Artículo Google Académico

Jensen, EC Análisis cuantitativo de tinción histológica y fluorescencia usando ImageJ. Soy. Asoc. Anat. 296, 378–381. https://doi.org/10.1002/ar.22641 (2013).

Artículo Google Académico

Schneider, CA, Rasband, WS & Eliceiri, KW Nih image to imagej: 25 años de análisis de imágenes. Nat. Métodos 9, 671–675. https://doi.org/10.1038/nmeth.2089 (2012).

Artículo CAS PubMed PubMed Central Google Scholar

Arganda-Carreras, I. et al. Segmentación entrenable de Weka: una herramienta de aprendizaje automático para la clasificación de píxeles de microscopía. Bioinformática 33, 2424–2426. https://doi.org/10.1093/bioinformatics/btx180 (2017).

Artículo CAS PubMed Google Académico

Toggas, SM et al. Daño al sistema nervioso central producido por la expresión de la proteína de cubierta gpl20 del vih-1 en ratones transgénicos. Naturaleza 367, 188–193. https://doi.org/10.1038/367188a0 (1994).

Artículo ADS CAS PubMed Google Scholar

Lynch, MA El perfil multifacético de la microglía activada. mol. Neurobiol. 40, 139–156. https://doi.org/10.1007/s12035-009-8077-9 (2009).

Artículo CAS PubMed Google Académico

Karperien, A., Ahammer, H. & Jelinek, H. Cuantificación de las sutilezas de la morfología microglial con análisis fractal. Frente. Celúla. Neurosci. 7, 3. https://doi.org/10.3389/fncel.2013.00003 (2013).

Artículo PubMed PubMed Central Google Académico

Gomez-Nicola, D. & Perry, VH Dinámica microglial y papel en el cerebro sano y enfermo: un paradigma de plasticidad funcional. El neurocientífico 21, 169–184. https://doi.org/10.1177/1073858414530512 (2015).

Artículo CAS PubMed PubMed Central Google Scholar

Morelli, R. et al. Automatización del conteo de células en microscopía fluorescente a través del aprendizaje profundo con c-resunet. ciencia Rep. 11, 1–11. https://doi.org/10.1038/s41598-021-01929-5 (2021).

Artículo CAS Google Académico

Clissa, L. et al. Automatización del conteo de células en microscopía fluorescente a través de aprendizaje profundo con c-resunet. AlmaDL http://amsacta.unibo.it/6706/ (2021).

Goecks, J., Nekrutenko, A. & Taylor, J. Galaxy: Un enfoque integral para apoyar la investigación computacional accesible, reproducible y transparente en las ciencias de la vida. Genoma Biol. 11, 1–13. https://doi.org/10.1186/gb-2010-11-8-r86 (2010).

Artículo Google Académico

Berg, S. et al. Ilastik: aprendizaje automático interactivo para el análisis de (bio) imágenes. Nat. Métodos 16, 1226–1232. https://doi.org/10.1038/s41592-019-0582-9 (2019).

Artículo CAS PubMed Google Académico

Ronneberger, O., Fischer, P. & Brox, T. U-net: Redes convolucionales para la segmentación de imágenes biomédicas. En Conferencia internacional sobre computación de imágenes médicas e intervención asistida por computadora 234–241 (Springer, 2015). https://doi.org/10.1007/978-3-319-24574-4_28.

Diakogiannis, FI, Waldner, F., Caccetta, P. y Wu, C. Resunet-a: un marco de aprendizaje profundo para la segmentación semántica de datos de detección remota. ISPRS Journal of Photogrametry and Remote Sensing 162, 94–114. https://doi.org/10.1016/j.isprsjprs.2020.01.013 (2020).

Artículo ANUNCIOS Google Académico

Stirling, DR et al. Cellprofiler 4: Mejoras en velocidad, utilidad y usabilidad. BMC Bioinforme. 22, 1–11. https://doi.org/10.1186/s12859-021-04344-9 (2021).

Artículo Google Académico

Dao, D. et al. Analista de Cellprofiler: exploración, análisis y clasificación interactivos de datos de grandes conjuntos de imágenes biológicas. Bioinformática 32, 3210–3212. https://doi.org/10.1093/bioinformatics/btw390 (2016).

Artículo CAS PubMed PubMed Central Google Scholar

Singh, H. et al. Un papel fundamental para el interferón-\(\alpha\) receptor-1 en la lesión neuronal inducida por el vih-1. J. Neuroinflamm. 17, 226. https://doi.org/10.1186/s12974-020-01894-2 (2020).

Artículo CAS Google Académico

Schindelin, J. et al. Fiji: una plataforma de código abierto para el análisis de imágenes biológicas. Nat. Métodos 9, 676–682. https://doi.org/10.1038/nmeth.2019 (2012).

Artículo CAS PubMed Google Académico

Virtanen, P. et al. SciPy 1.0: algoritmos fundamentales para la computación científica en Python. Nat. Métodos 17, 261–272. https://doi.org/10.1038/s41592-019-0686-2 (2020).

Artículo CAS PubMed PubMed Central Google Scholar

McKinney, W. et al. Estructuras de datos para computación estadística en python. En las Actas de la 9.ª Conferencia sobre Python en la Ciencia, vol. 445, 51–56 (2010).

Harris, CR et al. Programación de matrices con NumPy. Naturaleza 585, 357–362. https://doi.org/10.1038/s41586-020-2649-2 (2020).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Hunter, JD Matplotlib: Un entorno de gráficos 2d. computar ciencia Ing. 9, 90–95 (2007).

Artículo Google Académico

Klein, A. et al. imageio/imageio: v2.16.1. Zenodo https://doi.org/10.5281/zenodo.6302089(2022).

Pedregosa, F. et al. Scikit-learn: aprendizaje automático en python. J. Mach. Aprender. Res. 12, 2825–2830. https://doi.org/10.5555/1953048.2078195 (2011).

Artículo MathSciNet MATEMÁTICAS Google Académico

Breiman, L. Bosques aleatorios. Mach. Aprender. 45, 5–32. https://doi.org/10.1023/A:1010933404324 (2001).

Artículo MATEMÁTICAS Google Académico

Friedman, N., Geiger, D. & Goldszmidt, M. Clasificadores de redes bayesianas. Mach. Aprender. 29, 131–163. https://doi.org/10.1023/A:1007465528199 (1997).

Artículo MATEMÁTICAS Google Académico

Vincent, L. & Soille, P. Cuencas hidrográficas en espacios digitales: un algoritmo eficiente basado en simulaciones de inmersión. Trans. IEEE. Patrón Anal. Mach. Intel. 13, 583–598. https://doi.org/10.1109/34.87344 (1991).

Artículo Google Académico

Yan, Q., Zheng, J., Reding, S., Li, S. y Doytchinov, I. Crossloc: localización aérea escalable asistida por datos sintéticos multimodales. En Actas de la Conferencia IEEE/CVF sobre visión artificial y reconocimiento de patrones 17358–17368, https://doi.org/10.48550/arXiv.2112.09081(2022).

Descargar referencias

Los autores agradecen a la Dra. Nina Yuan y la Dra. Deepika Bhullar por las imágenes de tejidos cerebrales de ratones. Este trabajo fue apoyado por fondos del Instituto Nacional de Salud NIH, R01 MH104131, MH105330, MH087332, DA052209 a MK.

Programa de Posgrado en Genética, Genómica y Bioinformática, Universidad de California, Riverside, Riverside, CA, 92521, EE. UU.

Theodore J. Kataras, Tyler J. Jang y Marcus Kaul

Facultad de Medicina, División de Ciencias Biomédicas, Universidad de California, Riverside, Riverside, CA, 92521, EE. UU.

Theodore J. Kataras, Tyler J. Jang, Jeffrey Koury, Hina Singh, Dominic Fok y Marcus Kaul

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

TK y MK concibieron este proyecto. TJ y TK programaron la herramienta, realizaron el estudio de análisis de imágenes y escribieron el manuscrito. JK participó en la adquisición de imágenes. Las pruebas de usuario de la herramienta fueron realizadas por TK, TJ y DF, quienes brindaron comentarios durante el desarrollo de ACCT. Imágenes de microglía Iba-1 por HS y contadas manualmente por TK, HS y DF. MK supervisó el proyecto y editó el manuscrito. Todos los autores revisaron el manuscrito y lo aprobaron antes de enviarlo.

Correspondencia a Marcus Kaul.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Kataras, TJ, Jang, TJ, Koury, J. et al. ACCT es una herramienta de recuento automático de células rápida y accesible que utiliza el aprendizaje automático para la segmentación de imágenes 2D. Informe científico 13, 8213 (2023). https://doi.org/10.1038/s41598-023-34943-w

Descargar cita

Recibido: 09 junio 2022

Aceptado: 10 de mayo de 2023

Publicado: 22 mayo 2023

DOI: https://doi.org/10.1038/s41598-023-34943-w

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.

COMPARTIR