AxSí denuncia que haya colegios San Fernando pendientes aún del mantenimiento de las zonas verdes - San Fernando - Noticias, última hora, vídeos y fotos de San Fernando Ver
Analizan cómo el cerebro de un perro representa lo que ve
EDICIÓN

Analizan cómo el cerebro de un perro representa lo que ve

​El aprendizaje automático da una idea de cómo el cerebro de un perro representa lo que ve
Escáner perro
Los perros parecen estar menos preocupados por quién o qué están viendo y más preocupados por la acción en sí.

Los científicos han decodificado imágenes visuales del cerebro de un perro, ofreciendo un primer vistazo a cómo la mente canina reconstruye lo que ve.


Los resultados sugieren que los perros están más en sintonía con las acciones de su entorno que con quién o qué está realizando la acción.


Los investigadores de la Universidad de Emory registraron los datos neuronales de fMRI para dos perros despiertos y sin restricciones mientras miraban vídeos en tres sesiones de 30 minutos, por un total de 90 minutos. Luego utilizaron un algoritmo de aprendizaje automático para analizar los patrones en los datos neuronales.


"Demostramos que podemos monitorear la actividad en el cerebro de un perro mientras mira un vídeo y, al menos hasta cierto punto, reconstruir lo que está mirando", comenta Gregory Berns, profesor de psicología de Emory y autor correspondiente del artículo.


El proyecto se inspiró en los avances recientes en aprendizaje automático y fMRI para decodificar estímulos visuales del cerebro humano, proporcionando nuevos conocimientos sobre la naturaleza de la percepción. Más allá de los humanos, la técnica se ha aplicado solo a un puñado de otras especies, incluidos algunos primates.


"Si bien nuestro trabajo se basa en solo dos perros, ofrece una prueba de concepto de que estos métodos funcionan en caninos", señala Erin Phillips, primera autora del artículo, quien realizó el trabajo como investigadora especialista en el Laboratorio de Neurociencia Cognitiva Canina de Berns. “Espero que este documento ayude a allanar el camino para que otros investigadores apliquen estos métodos en perros, así como en otras especies, para que podamos obtener más datos y una mayor comprensión de cómo funcionan las mentes de diferentes animales”.


Berns y sus colegas fueron pioneros en técnicas de entrenamiento para hacer que los perros caminen hacia un escáner fMRI y se mantengan completamente quietos y sin restricciones mientras se mide su actividad neuronal. Hace una década, su equipo publicó las primeras imágenes cerebrales de resonancia magnética funcional de un perro completamente despierto y sin restricciones. A lo largo de los años, su laboratorio ha publicado investigaciones sobre cómo el cerebro canino procesa la visión, las palabras, los olores y las recompensas, como recibir elogios o comida.


AVANCES TECNOLÓGICOS


Mientras tanto, la tecnología detrás de los algoritmos informáticos de aprendizaje automático siguió mejorando. La tecnología ha permitido a los científicos decodificar algunos patrones de actividad cerebral humana. "Lee la mente" al detectar dentro de patrones de datos cerebrales los diferentes objetos o acciones que un individuo está viendo mientras ve un vídeo.


“Empecé a preguntarme: '¿Podemos aplicar técnicas similares a los perros?'”, recuerda Berns.


El primer desafío fue crear contenido de vídeo que un perro pudiera encontrar lo suficientemente interesante como para verlo durante un período prolongado. El equipo de investigación colocó una grabadora de vídeo en un cardán y un palo selfie que les permitió tomar imágenes estables desde la perspectiva de un perro, aproximadamente a la altura de la cintura de un humano o un poco más abajo. Usaron el dispositivo para crear un vídeo de media hora de escenas relacionadas con la vida de la mayoría de los perros. Las actividades incluyeron perros acariciados por personas y recibiendo golosinas de personas. Las escenas con perros también los mostraban olfateando, jugando, comiendo o paseando con correa. Las escenas de actividad mostraban autos, bicicletas o una moto pasando por una carretera; un gato caminando en una casa; un ciervo cruzando un camino; gente sentada; gente abrazándose o besándose; personas que ofrecen un hueso de goma o una pelota a la cámara; y gente comiendo.


Los datos de vídeo se segmentaron por marcas de tiempo en varias clasificaciones, basadas en objetos (como perros, automóviles, humanos, gatos) y basadas en acciones (como olfatear, jugar o comer).


Solo dos de los perros que habían sido entrenados para experimentos en una fMRI tenían el enfoque y el temperamento para quedarse completamente quietos y ver el vídeo de 30 minutos sin interrupción, incluidas tres sesiones por un total de 90 minutos. Estos dos caninos "súper estrellas" eran Daisy, una raza mixta que puede ser en parte boston terrier, y Bhubo, una raza mixta que puede ser en parte boxer.


“Ni siquiera necesitaban golosinas”, asegura Phillips, quien monitoreó a los animales durante las sesiones de fMRI y observó cómo sus ojos seguían el vídeo. "Fue divertido porque es ciencia seria, y se dedicó mucho tiempo y esfuerzo, pero se redujo a estos perros viendo vídeos de otros perros y humanos actuando un poco tontos".


Decoding canine cognit


GRANDES DIFERENCIAS ENTRE HUMANOS Y PERROS


Dos humanos también se sometieron al mismo experimento, viendo el mismo vídeo de 30 minutos en tres sesiones separadas, mientras estaban acostados en una resonancia magnética funcional.


Los datos del cerebro podrían mapearse en los clasificadores de vídeo utilizando las marcas de tiempo.


Se aplicó a los datos un algoritmo de aprendizaje automático, una red neuronal conocida como Ivis. Una red neuronal es un método para hacer aprendizaje automático al hacer que una computadora analice ejemplos de entrenamiento. En este caso, la red neuronal fue entrenada para clasificar el contenido de datos cerebrales.


Los resultados para los dos sujetos humanos encontraron que el modelo desarrollado utilizando la red neuronal mostró una precisión del 99 % en el mapeo de los datos del cerebro en las clasificaciones basadas en objetos y en acciones.


En el caso de decodificar contenido de vídeo de los perros, el modelo no funcionó para los clasificadores de objetos. Sin embargo, tuvo una precisión del 75 % al 88 % al decodificar las clasificaciones de acción para los perros.


Los resultados sugieren grandes diferencias en cómo funcionan los cerebros de humanos y perros.


“Los humanos estamos muy orientados a objetos”, explica Berns. “Hay 10 veces más sustantivos que verbos en el idioma inglés porque tenemos una obsesión particular con nombrar objetos. Los perros parecen estar menos preocupados por quién o qué están viendo y más preocupados por la acción en sí”.


Los perros y los humanos también tienen grandes diferencias en sus sistemas visuales, señala Berns. Los perros solo ven en tonos de azul y amarillo, pero tienen una densidad ligeramente mayor de receptores de visión diseñados para detectar movimiento.


“Tiene mucho sentido que los cerebros de los perros estén muy sintonizados con las acciones. Los animales deben estar muy preocupados por las cosas que suceden en su entorno para evitar que se los coman o para monitorear a los animales que podrían querer cazar. La acción y el movimiento son primordiales”.

Archivo