Índice analítico[Ocultar][Mostrar]
Os científicos poden ser máis capaces de comprender e prever as conexións entre varias áreas do cerebro grazas a un novo algoritmo de aprendizaxe automática baseado en GPU creado por investigadores do Instituto Indio de Ciencia (IISc).
O algoritmo, coñecido como Regularized, Accelerated, Linear Fascicle Evaluation ou ReAl-LiFE, é capaz de analizar de forma eficiente os volumes masivos de datos producidos polas exploracións de imaxes de resonancia magnética de difusión (dMRI) do cerebro humano.
O uso de ReAL-LiFE por parte do equipo permitiulles analizar os datos dMRI máis de 150 veces máis rápido do que poderían ter coas técnicas actuais de última xeración.
Como funciona o modelo de conectividade cerebral?
Cada segundo, os millóns de neuronas do cerebro disparan, creando pulsos eléctricos que se moven a través de redes neuronais, tamén coñecidas como "axóns", dunha parte do cerebro a outra.
Para que o cerebro funcione como un ordenador, estas conexións son necesarias. Non obstante, os métodos tradicionais para estudar as conexións cerebrais adoitan implicar o uso de modelos animais invasores.
Non obstante, as exploracións dMRI ofrecen un xeito non invasivo de examinar as conexións do cerebro humano.
As vías da información do cerebro son os cables (axóns) que unen as súas diversas rexións. As moléculas de auga viaxan xunto cos feixes de axóns ao longo da súa lonxitude de forma dirixida xa que están formadas como tubos.
O conectoma, que é un mapa detallado da rede de fibras que atravesa o cerebro, pódese facer posible grazas á dMRI, que permite aos investigadores seguir este movemento.
Desafortunadamente, identificar estes conectomas non é sinxelo. Os datos das exploracións mostran só o fluxo neto de moléculas de auga en cada localización do cerebro.
Considere as moléculas de auga como automóbiles. Sen saber nada das calzadas, a única información recollida é a dirección e a velocidade dos coches en cada momento e lugar.
Mediante o seguimento destes patróns de tráfico, a tarefa é comparable a inferir as redes de estradas. Os enfoques convencionais coinciden estreitamente co sinal dMRI esperado do conectoma inferido co sinal dMRI real para identificar correctamente estas redes.
Para facer esta optimización, os científicos crearon anteriormente un algoritmo chamado LiFE (Linear Fascicle Evaluation), pero un dos seus inconvenientes era que funcionaba con unidades centrais de procesamento (CPU) convencionais, o que facía que o cálculo fose lento.
Vida real é un modelo revolucionario que foi creado por investigadores indios
Inicialmente, os investigadores crearon un algoritmo chamado LiFE (Linear Fascial Evaluation) para facer este axuste, pero unha das súas desvantaxes era que dependía de unidades centrais de procesamento (CPU) comúns, que tardaban en calcularse.
O equipo de Sridharan mellorou a súa técnica no estudo máis recente para minimizar o traballo de procesamento necesario de varias formas, incluíndo a eliminación de conexións redundantes e a mellora significativa do rendemento de LiFE.
Os investigadores perfeccionaron aínda máis a tecnoloxía ao deseñala para funcionar en unidades de procesamento de gráficos (GPU), que son chips eléctricos especializados utilizados en PCs de xogos de gama alta.
Isto permitiulles examinar os datos 100-150 veces máis rápido que os enfoques anteriores. To seu algoritmo actualizado, ReAl-LiFE, tamén podería anticipar como actuará un suxeito humano ou fará un determinado traballo.
Noutras palabras, utilizando os puntos fortes de ligazón proxectados do algoritmo para cada individuo, o equipo foi capaz de explicar as variacións nas puntuacións das probas de comportamento e cognitivas entre unha mostra de 200 individuos.
Tal análise tamén pode ter usos medicinais". O procesamento de datos a gran escala é cada vez máis importante para as aplicacións de neurociencia de grandes datos, especialmente para comprender a función cerebral saudable e os trastornos cerebrais.
Conclusión
En conclusión, ReAl-LiFE tamén podería anticipar como actuará un suxeito humano ou fará un determinado traballo.
Noutras palabras, utilizando os puntos fortes de ligazón proxectados do algoritmo para cada individuo, o equipo foi capaz de explicar as variacións nas puntuacións das probas de comportamento e cognitivas entre unha mostra de 200 individuos.
Tal análise tamén pode ter usos medicinais". O procesamento de datos a gran escala é cada vez máis importante para as aplicacións de neurociencia de grandes datos, especialmente para comprender a función cerebral saudable e os trastornos cerebrais.
Deixe unha resposta