Los hallazgos sugieren que los perros están más en sintonía con las acciones que con quién o qué están haciendo – ScienceDaily

Los científicos han decodificado imágenes visuales del cerebro de un perro y han proporcionado un primer vistazo a cómo el cerebro de un perro reconstruye lo que ve. Revista Experiencia Visual Se publicó la investigación realizada en la Universidad de Emory.

Los resultados sugieren que los perros están más en sintonía con las acciones en su entorno que con quién o qué lo está haciendo.

Los investigadores registraron los datos neuronales de fMRI de dos perros despiertos y sin restricciones mientras miraban videos en tres sesiones de 30 minutos, para un total de 90 minutos. Luego usaron un algoritmo de aprendizaje automático para analizar los patrones en los datos neuronales.

“Hemos demostrado que podemos monitorear la actividad en el cerebro de un perro mientras mira un video y, al menos en un grado limitado, reconstruir lo que está mirando”, dice Gregory Burns, profesor de psicología de Emory y autor correspondiente de la trabajo de investigación. “El hecho de que podamos hacer esto es maravilloso”.

El proyecto se inspiró en los avances recientes en aprendizaje automático y fMRI para decodificar estímulos visuales del cerebro humano, proporcionando nuevos conocimientos sobre la naturaleza de la cognición. Aparte de los humanos, esta técnica se ha aplicado solo a unas pocas especies, incluidos algunos primates.

“Si bien nuestro trabajo se basa solo en dos perros, proporciona una prueba de concepto de que estos métodos funcionan en caninos”, dice Erin Phillips, primera autora del artículo de investigación, quien realizó el trabajo como especialista en investigación en el Laboratorio de Neurociencia Cognitiva Canina en Quemaduras. “Espero que este documento ayude a allanar el camino para que otros investigadores apliquen estos métodos a los perros, así como a otras especies, para que podamos obtener más datos y una mayor comprensión de cómo funcionan los cerebros de diferentes animales”.

Phillips, de Escocia, llegó a Emory como investigadora de Bobby Jones, un programa de intercambio entre Emory y la Universidad de St Andrews. Actualmente es estudiante de posgrado en Ecología y Biología Evolutiva en la Universidad de Princeton.

Burns y sus colegas han sido pioneros en técnicas de entrenamiento para hacer que los perros caminen en un escáner fMRI y permanezcan completamente quietos y sin restricciones mientras se mide su actividad neuronal. Hace una década, su equipo publicó las primeras imágenes de resonancia magnética funcional del cerebro de un perro completamente despierto y sin correa. Eso abrió la puerta a lo que Burns llama el “proyecto del perro”, una serie de experimentos que exploran la mente de las especies domesticadas más antiguas.

A lo largo de los años, su laboratorio ha publicado investigaciones sobre cómo el cerebro de un perro procesa la visión, las palabras, los olores y las recompensas, como recibir elogios o comida.

Mientras tanto, la tecnología detrás de los algoritmos informáticos para el aprendizaje automático siguió mejorando. La tecnología ha permitido a los científicos descifrar algunos patrones de actividad cerebral humana. La tecnología “lee la mente” al detectar patrones de datos cerebrales sobre diferentes objetos o acciones que un individuo ve mientras mira un video.

“Comencé a preguntarme, ¿podríamos aplicar técnicas similares a los perros?”, recuerda Burns.

El primer desafío fue crear contenido de video que el perro encontraría lo suficientemente interesante como para mirar durante mucho tiempo. El equipo de investigación de Emory instaló una grabadora de video en el cardán y el palo para selfies que les permitió tomar fotografías fijas desde la perspectiva de un perro, a la altura de la cintura de un humano o ligeramente por debajo.

Usaron el dispositivo para crear un video de media hora de escenas relacionadas con la vida de la mayoría de los perros. Las actividades incluyeron acariciar perros por personas y recibir tratamiento de personas. También se mostró a los perros olfateando, jugando, comiendo o caminando con correa. Las escenas de actividad muestran automóviles, bicicletas o motocicletas que pasan por la carretera; Gato caminando en una casa. un ciervo cruza el camino; personas sentadas personas abrazándose o besándose; Personas que proyectan un hueso de goma o una pelota a la cámara; Y la gente come.

Los datos de video se dividieron por marcas de tiempo en diferentes clasificadores, incluidos clasificadores basados ​​en objetos (p. ej., perro, automóvil, humano y gato) y clasificadores basados ​​en movimiento (p. ej., olfatear, jugar o comer).

Solo dos de los perros entrenados para los experimentos de fMRI tenían el enfoque y el temperamento para quedarse muy quietos y ver un video de 30 minutos sin interrupciones, incluidas tres sesiones de 90 minutos. Estos dos “súper” perros eran Daisy, una raza mixta que podría ser parte de un Boston terrier, y Bobo, una raza mixta que podría ser parte de un Boxer.

“No necesitaban tratamiento”, dice Phillips, quien supervisó a los animales durante las sesiones de fMRI y observó cómo sus ojos seguían el video. “Fue divertido porque es ciencia seria, y se ha invertido mucho tiempo y esfuerzo, pero todo se redujo a que estos perros vieron videos de otros perros y humanos comportándose de una manera ridícula”.

Dos personas también tuvieron el mismo experimento, viendo el mismo video de 30 minutos en tres sesiones separadas, mientras estaban acostados en una máquina de resonancia magnética.

Los datos del cerebro se pueden asignar a clasificadores de video usando marcas de tiempo.

Se aplicó a los datos un algoritmo de aprendizaje automático, una red neuronal conocida como Ivis. Una red neuronal es una forma de hacer aprendizaje automático haciendo que una computadora analice ejemplos de entrenamiento. En este caso, la red neuronal fue entrenada para clasificar el contenido de los datos cerebrales.

Los resultados de los dos sujetos humanos encontraron que el modelo desarrollado utilizando la red neuronal mostró una precisión del 99% en el mapeo de datos cerebrales para clasificadores basados ​​en objetos y acciones.

En el caso de decodificar contenido de video de perros, el modelo no funciona con clasificadores de objetos. Sin embargo, la precisión fue del 75% al ​​88% al descifrar las clasificaciones de trabajo de los perros.

Los resultados apuntan a diferencias significativas en cómo funcionan los cerebros de humanos y perros.

“Los humanos estamos enfocados en la meta”, dice Burns. “Hay 10 veces más sustantivos en el idioma inglés porque tenemos una obsesión por nombrar las cosas. Los perros parecen menos interesados ​​en quién o qué ven y más interesados ​​en la acción en sí”.

Burns señala que los perros y los humanos también tienen diferencias significativas en sus sistemas visuales. Los perros solo ven tonos de azul y amarillo, pero tienen una densidad ligeramente mayor de receptores de visión diseñados para detectar el movimiento.

“Tiene sentido que los cerebros de los perros estén muy sintonizados con las acciones ante todo”, dice. “Los animales deben prestar mucha atención a las cosas que suceden en su entorno para evitar comerlos o para vigilar a los animales que podrían querer cazar. El movimiento y el movimiento son de suma importancia”.

Para Philips, comprender cómo los diferentes animales perciben el mundo es importante para su investigación de campo actual sobre cómo la reintroducción de depredadores en Mozambique afecta los ecosistemas. “Históricamente, no ha habido mucha superposición en la informática y el medio ambiente”, dice ella. “Pero el aprendizaje automático es un campo en crecimiento que está comenzando a encontrar aplicaciones más amplias, incluso en ecología”.

Otros autores del artículo incluyen a Daniel Dilks, profesor asociado de psicología de Emory, y Kirsten Gillette, quien trabajó en el proyecto como estudiante de neurociencia y biología del comportamiento en Emory. Desde entonces, Gillette se graduó y ahora está en un programa de posgrado en la Universidad de Carolina del Norte.

Daisy es propiedad de Rebecca Beasley y Bhubo es propiedad de Ashwin Sakhardande. Los ensayos en humanos en el estudio fueron apoyados por una subvención del Instituto Nacional del Ojo.

Leave a Comment

Your email address will not be published.