Información

¿Existe redundancia en el sistema auditivo como en el sistema visual?

¿Existe redundancia en el sistema auditivo como en el sistema visual?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

En el sistema visual temprano, existe una gran superposición entre las células ganglionares de la retina, lo que da como resultado la redundancia de las señales que las neuronas llevan a áreas de procesamiento visual superiores en el cerebro.

¿Existe un tipo similar de redundancia en el sistema auditivo temprano?


Ciertamente hay redundancia en el sistema auditivo, bien demostrado por Gal Chechik et todos

También está claro que hay una redundancia intersensorial pronunciada, que involucra sistemas auditivos aquí.

Otro artículo analiza la redundancia auditiva clara en adultos cuando participan en una tarea para discriminar entre dos sonidos lo más rápido posible

… El sistema auditivo mantiene y tolera predicciones redundantes y contradictorias representadas funcionalmente de forma independiente.

En términos de redundancia en el desarrollo, parece que se han mostrado vínculos en ratones discutidos por el Dr. Thomas Braun

¡Espero que esto ayude!


Comprender la percepción sensorial

Durante sus estudios posdoctorales, la neurocientífica Katharina von Kriegstein estaba realizando experimentos para ver cómo la audición y el reconocimiento de voz activaban las áreas auditivas del cerebro cuando obtenía un resultado sorprendente. A diferencia de sus participantes, sus exploraciones por sí solas mostraron actividad en las áreas visuales del cerebro. "Ningún otro sujeto tuvo esta extraña actividad", recordó.

Ahora sabe por qué. En parte, fue porque reconoció visualmente a sus sujetos. Pero su investigación desde entonces ha revelado algo más: "Cuando tenemos una comunicación breve con una persona, durante dos minutos, por ejemplo, también usamos áreas visuales para ayudar al procesamiento auditivo, para ayudar a reconocer a la persona por voz".

Hoy, von Kriegstein es profesor de neurociencia cognitiva y clínica en la Technische Universität Dresden, Alemania, que investiga experiencias multisensoriales: ver y oír. A través de un proyecto llamado SENSOCOM, está explorando cómo la percepción sensorial afecta la comunicación, centrándose en las estructuras subcorticales profundas del cerebro.

Al hacer esto, ella y su equipo están explorando una parte del cerebro tradicionalmente excluida por la investigación que intenta comprender las deficiencias de comunicación que se encuentran en el trastorno del espectro autista y la dislexia, afecciones que afectan a alrededor de 53 millones de personas en Europa.

"Lo fundamental es que observamos estructuras muy tempranas, las vías sensoriales, mientras que la mayoría de los investigadores han estado analizando la función cognitiva (en la corteza cerebral)", dijo. "Entonces, en el autismo, más incluso que en la dislexia, básicamente casi todo el trabajo se está haciendo, o se ha hecho, en la corteza cerebral (y las estructuras que tienen que ver con la emoción)".

Comunicación

El profesor von Kriegstein cree que profundizar en la maquinaria de procesamiento neuronal menos estudiada podría explicar algunos problemas de comunicación cruciales en la dislexia y el autismo que anteriormente se atribuían principalmente a la disfunción de las regiones corticales.

"El pensamiento era que en realidad nuestros ojos y oídos envían las señales sensoriales a la corteza cerebral y las estructuras subcorticales son básicamente para transmitir esta información y la corteza hace todas las cosas muy interesantes", dijo. "Pero ahora sabemos que hay muchas conexiones de retroalimentación y demás, por lo que tiene sentido observar estas estructuras que durante mucho tiempo se pensó que eran poco interesantes".

Estas estructuras también han sido difíciles de estudiar utilizando las técnicas no invasivas disponibles hasta la fecha, ya que son de tamaño pequeño y están ubicadas profundamente dentro del cerebro. Hasta ahora, la investigación sobre las estructuras subcorticales y la dislexia se ha centrado principalmente en modelos animales y casos post mortem. Pero la profesora von Kriegstein y su equipo están superando esos desafíos en humanos mediante el uso de técnicas recientemente desarrolladas en neuroimagen de ultra alta resolución.

Su equipo está explorando si las dificultades del procesamiento sensorial en el autismo de alto funcionamiento contribuyen a las deficiencias en la comunicación social, como el reconocimiento de las emociones vocales y el tono en los demás, así como en la dislexia, una discapacidad de aprendizaje caracterizada por la dificultad para leer con fluidez.

Para ello, se han centrado en las vías sensoriales vinculadas a estas estructuras profundas. Ella y su grupo descubrieron que los adultos con dislexia tienen conexiones de vía más débiles entre una estructura subcortical visual (el tálamo visual izquierdo) con un área de la corteza llamada V5 / MT, que es fundamental para la percepción del movimiento visual. En el modo auditivo, hubo un hallazgo similar. El equipo descubrió conexiones más débiles entre el tálamo auditivo izquierdo y una estructura de la corteza vinculada al movimiento auditivo, que es importante para la percepción del habla. Por lo tanto, estas conexiones podrían ser importantes para la lectura y para predecir la habilidad de lectura, según el Dr. von Kriegstein.

La dificultad para nombrar rápidamente es un síntoma central de la dislexia. Y el equipo descubrió que cuanto más débil era la conexión, más tiempo necesitaba para nombrar letras y números en voz alta.

Entonces, ¿cómo podría esto traducirse en ayudar a las personas con dislexia? Esto es ciencia básica, dice la profesora von Kriegstein, por lo que primero es crucial comprender los mecanismos detrás de los trastornos de la comunicación antes de desarrollar herramientas de capacitación en terapia, aunque es optimista que estas podrían estar al alcance.

Su laboratorio también está analizando la neuroestimulación, específicamente una técnica no invasiva llamada estimulación magnética transcraneal, para comprender mejor cómo funciona la comunicación. Esta técnica consiste en colocar una bobina contra el cuero cabelludo para generar pulsos magnéticos que alteran temporalmente la actividad neuronal del cerebro. Al medir el impacto de la estimulación en la comunicación, los investigadores tienen como objetivo comprender qué regiones del cerebro son importantes para un proceso en particular. "Por supuesto, si funciona, uno podría enfocarse mejor en estas áreas", dijo.

De hecho, investigadores en Israel en 2015 informaron que la neuroestimulación "resultó en una mejora significativa en las habilidades rápidas para nombrar los números de los disléxicos y una tendencia hacia la mejora de las letras".

Una mejor comprensión de cómo el cerebro procesa las experiencias sensoriales también podría tener implicaciones para otra afección: la esquizofrenia.

Siempre que usamos nuestros sentidos, tal vez al oler el café o al escuchar el ruido de un tren, se genera actividad eléctrica dentro de las redes neuronales.

La forma en que el cerebro codifica la información y, a su vez, dirige la percepción de esa experiencia sensorial es un proceso muy variable.

Tommaso Fellin, investigador principal del Istituto Italiano di Tecnologia (IIT) en Génova, Italia, lidera un proyecto llamado NEURO-PATTERNS, que tiene como objetivo comprender mejor cómo funciona la codificación cerebral durante la percepción sensorial y los patrones de actividad más importantes. También podría revelar las anomalías relacionadas con la enfermedad.

"Comprender esta propiedad básica del cerebro de los mamíferos tiene el potencial de arrojar luz sobre las enfermedades cerebrales", dijo el Dr. Fellin, "especialmente para aquellas afecciones que se caracterizan por alteraciones en la percepción sensorial".

Esquizofrenia

Por lo tanto, esta investigación es relevante para estudiar condiciones como la esquizofrenia con déficits en el procesamiento auditivo y sensorial.

La sobrecarga sensorial o las percepciones distorsionadas y elevadas descritas por los pacientes con esquizofrenia, por ejemplo, podrían estar relacionadas con estos déficits. La disfunción sensorial también se ha relacionado con delirios y alucinaciones, así como con dificultades para prestar atención y leer las emociones o el tono de los demás, todo lo cual puede afectar la interacción social.

Según el Dr. Fellin, la disminución de la conectividad entre las células nerviosas (neuronas) parece jugar un papel importante en la progresión de la esquizofrenia. Hasta ahora, el Dr. Fellin y su grupo han identificado qué neuronas específicas influyen en las respuestas sensoriales en estudios con ratones, pero aún no en modelos animales de esquizofrenia, con investigaciones similares en células gliales, las células de soporte del sistema nervioso.

Ahora, están desarrollando nuevas tecnologías para estimular y monitorear la actividad en las neuronas, incluso en la resolución de una sola célula y en regiones cerebrales profundas. Este trabajo refleja un enfoque renovado reciente más amplio en la investigación de la esquizofrenia sobre los déficits de los procesos sensoriales en lugar de un énfasis en los procesos cognitivos de orden superior como la memoria. Y podría ayudar en el futuro a los investigadores a diseñar mejores herramientas de diagnóstico y opciones de tratamiento.


Qué hacer si nota signos de trastorno del procesamiento visual

Toma nota

Si comienza a notar alguno de los problemas de procesamiento visual enumerados anteriormente, es importante que tome nota de estos síntomas. Mantenga una lista para que pueda hacer referencia a problemas específicos cuando hable con el maestro de su hijo o un especialista.

Hable con el maestro de su hijo

Lleve su lista de preocupaciones al maestro de su hijo y tenga una conversación sobre cualquier dificultad de procesamiento visual que haya notado en el aula. Pregunte si estos problemas se interponen en el camino de la comprensión lectora o el desarrollo social de su hijo.

Solicite una evaluación

La visión deficiente y el trastorno del procesamiento visual son problemas diferentes que requieren diferentes intervenciones, por lo que es importante descartar cualquier problema visual o ocular haciendo que un pediatra u oftalmólogo revise la vista de su hijo. Si la visión demuestra no ser un problema, hable con la escuela de su hijo sobre cómo medir sus habilidades de comprensión visual.

Sea proactivo y confíe en su instinto

Como padre, usted es el mejor defensor de su hijo. Si la escuela de su hijo le asegura que no pasa nada, pero usted siente que hay un problema, no tema que evalúen a su hijo para detectar problemas de procesamiento visual.


Transducción de sonido

Los objetos que vibran, como las cuerdas vocales, crean ondas sonoras u ondas de presión en el aire. Cuando estas ondas de presión llegan al oído, el oído transduce este estímulo mecánico (onda de presión) en un impulso nervioso (señal eléctrica) que el cerebro percibe como sonido. Las ondas de presión golpean el tímpano y lo hacen vibrar. La energía mecánica del tímpano en movimiento transmite las vibraciones a los tres huesos del oído medio. El estribo transmite las vibraciones a un diafragma delgado llamado ventana ovalada, que es la estructura más externa del oído interno. Las estructuras del oído interno se encuentran en el laberinto, una estructura hueca y ósea que es la parte más interior de la oreja. Aquí, la energía de la onda de sonido se transfiere desde el estribo a través de la ventana ovalada flexible y al líquido de la cóclea. Las vibraciones de la ventana oval crean ondas de presión en el líquido (perilinfa) dentro de la cóclea. los cóclea es una estructura en espiral, como el caparazón de un caracol, y contiene receptores para la transducción de la onda mecánica en una señal eléctrica (como se ilustra en la Figura 17.14). Dentro de la cóclea, el membrana basilar es un analizador mecánico que recorre la longitud de la cóclea, curvándose hacia el centro de la cóclea.

Las propiedades mecánicas de la membrana basilar cambian a lo largo de su longitud, de modo que es más gruesa, más tensa y más estrecha en la parte exterior del verticilo (donde la cóclea es más grande), y más delgada, más blanda y más ancha hacia el ápice o centro. del verticilo (donde la cóclea es más pequeña). Diferentes regiones de la membrana basilar vibran de acuerdo con la frecuencia de la onda sonora conducida a través del fluido en la cóclea. Por estas razones, la cóclea llena de líquido detecta diferentes frecuencias de onda (tonos) en diferentes regiones de la membrana. Cuando las ondas sonoras del líquido coclear entran en contacto con la membrana basilar, se flexiona hacia adelante y hacia atrás en forma de onda. Por encima de la membrana basilar está la membrana tectorial.

Figura 17.14. En el oído humano, las ondas sonoras hacen que el estribo presione contra la ventana oval. Las vibraciones viajan por el interior lleno de líquido de la cóclea. La membrana basilar que recubre la cóclea se vuelve cada vez más delgada hacia el vértice de la cóclea. Diferentes espesores de membrana vibran en respuesta a diferentes frecuencias de sonido. Luego, las ondas sonoras salen por la ventana redonda. En la sección transversal de la cóclea (figura superior derecha), observe que además del canal superior y el canal inferior, la cóclea también tiene un canal medio. El órgano de Corti (imagen inferior) es el sitio de la transducción del sonido. El movimiento de los estereocilios en las células ciliadas da como resultado un potencial de acción que viaja a lo largo del nervio auditivo.

Los implantes cocleares pueden restaurar la audición en personas que tienen una cóclea no funcional. El implante consta de un micrófono que capta el sonido. Un procesador del habla selecciona sonidos en el rango del habla humana y un transmisor convierte estos sonidos en impulsos eléctricos, que luego se envían al nervio auditivo. ¿Cuál de los siguientes tipos de pérdida auditiva no se restauraría con un implante coclear?

  1. Pérdida auditiva resultante de la ausencia o pérdida de células ciliadas en el órgano de Corti.
  2. Pérdida auditiva resultante de un nervio auditivo anormal.
  3. Hipoacusia resultante de la fractura de la cóclea.
  4. Pérdida auditiva resultante de daños en los huesos del oído medio.

El sitio de transducción está en el órgano de Corti (órgano espiral). Está compuesto por células ciliadas que se mantienen en su lugar por encima de la membrana basilar como flores que se proyectan hacia arriba desde el suelo, con su pelo corto y expuesto. estereocilia contactando o incrustado en la membrana tectorial por encima de ellos. Las células ciliadas internas son los receptores auditivos primarios y existen en una sola fila, con aproximadamente 3500. Los estereocilios de las células ciliadas internas se extienden en pequeños hoyuelos en la superficie inferior de la membrana tectorial. Las células ciliadas externas están dispuestas en tres o cuatro filas. Suman aproximadamente 12.000 y funcionan para sintonizar con precisión las ondas sonoras entrantes. Los estereocilios más largos que se proyectan desde las células ciliadas externas en realidad se adhieren a la membrana tectorial. Todos los estereocilios son mecanorreceptores y, cuando se doblan por vibraciones, responden abriendo un canal de iones con compuerta (consulte la Figura 17.2). Como resultado, la membrana de las células ciliadas se despolariza y se transmite una señal al nervio coclear. La intensidad (volumen) del sonido está determinada por la cantidad de células ciliadas que se estimulan en un lugar en particular.

Las células ciliadas se disponen en la membrana basilar de forma ordenada. La membrana basilar vibra en diferentes regiones, de acuerdo con la frecuencia de las ondas sonoras que inciden sobre ella. Del mismo modo, las células ciliadas que se encuentran por encima de él son más sensibles a una frecuencia específica de ondas sonoras. Las células ciliadas pueden responder a un rango pequeño de frecuencias similares, pero requieren una estimulación de mayor intensidad para disparar a frecuencias fuera de su rango óptimo. La diferencia en la frecuencia de respuesta entre las células ciliadas internas adyacentes es de aproximadamente un 0,2 por ciento. Compare eso con las cuerdas de piano adyacentes, que son aproximadamente un seis por ciento diferentes. La teoría del lugar, que es el modelo de cómo los biólogos creen que la detección de tono funciona en el oído humano, establece que los sonidos de alta frecuencia hacen vibrar selectivamente la membrana basilar del oído interno cerca del puerto de entrada (la ventana oval). Las frecuencias más bajas viajan más lejos a lo largo de la membrana antes de causar una excitación apreciable de la membrana. El mecanismo básico de determinación del tono se basa en la ubicación a lo largo de la membrana donde se estimulan las células ciliadas. La teoría del lugar es el primer paso hacia la comprensión de la percepción del tono. Teniendo en cuenta la extrema sensibilidad del tono del oído humano, se cree que debe haber algún mecanismo de "afilado" auditivo para mejorar la resolución del tono.

Cuando las ondas sonoras producen ondas fluidas dentro de la cóclea, la membrana basilar se flexiona, doblando los estereocilios que se adhieren a la membrana tectorial. Su flexión da como resultado potenciales de acción en las células ciliadas, y la información auditiva viaja a lo largo de las terminaciones neurales de las neuronas bipolares de las células ciliadas (colectivamente, el nervio auditivo) hasta el cerebro. Cuando los pelos se doblan, liberan un neurotransmisor excitador en una sinapsis con una neurona sensorial, que luego conduce los potenciales de acción al sistema nervioso central. La rama coclear del nervio craneal vestibulococlear envía información sobre la audición. El sistema auditivo es muy refinado y hay algo de modulación o "agudización" incorporada. El cerebro puede enviar señales de regreso a la cóclea, lo que resulta en un cambio de longitud en las células ciliadas externas, agudizando o amortiguando la respuesta de las células ciliadas a ciertas frecuencias.


2 MÉTODO

2.1 Participantes

De una base de datos existente de 550 escuelas, 13 escuelas de la región central de los Países Bajos se inscribieron para participar. Se obtuvo el consentimiento activo informado de los padres y las escuelas antes de que se permitiera la participación de los niños. Este estudio fue aprobado por el Comité de Ética de la Facultad de Ciencias Sociales de nuestra universidad.

Todos los niños con dislexia en esta investigación fueron diagnosticados oficialmente con dislexia y en posesión de una declaración oficial de dislexia proporcionada por un psicólogo infantil certificado de acuerdo con la evaluación clínica del Protocolo de diagnóstico y tratamiento de dislexia. El Protocolo de diagnóstico y tratamiento de la dislexia es una guía para diagnosticar, indicar y tratar a los clientes con dislexia con el objetivo de describir la atención óptima para los clientes con dislexia basada en conocimientos científicos, profesionales y sociales actuales (Blomert, 2006). El grupo de control se seleccionó de las mismas aulas que los niños con dislexia para disminuir la influencia del grupo. En total, 38 niños con desarrollo típico (22 varones) de 10,92 años (Dakota del Sur = 0,37) y 26 niños con dislexia (13 varones) de 11,22 años (Dakota del Sur = 0,53) participaron en esta investigación (64 en total). En la investigación solo se incluyeron niños monolingües sin déficit de desarrollo (solo dislexia).

2.2 Procedimiento

Los niños fueron evaluados entre enero de 2016 y abril de 2016 por cinco estudiantes de pregrado. Antes de que comenzara la recopilación de datos, recibieron capacitación dos veces (cada 2,5 horas) sobre las lecciones y las pruebas. Las pruebas se realizaron en un entorno individual en una sala tranquila de la escuela. Los niños fueron evaluados durante 45 min / semana, 4 semanas seguidas. Los 64 niños recibieron tres lecciones multimedia ofrecidas en un diseño de bloques aleatorios con lecciones, modalidades y pruebas posteriores asignadas al azar por niño. Entonces, todos los niños estudiaron cada lección una vez (una lección a la semana). Durante el estudio, se registró el tiempo de aprendizaje de los niños. Después de las lecciones, los niños completaron inmediatamente la primera prueba posterior para medir el efecto de aprendizaje a corto plazo. No recibieron comentarios sobre sus respuestas. La segunda versión alternativa de la prueba posterior se administró una semana después para medir los efectos a largo plazo. Además, se realizaron algunas otras pruebas sobre la memoria de trabajo, el razonamiento no verbal y el lenguaje. Para cinco niños, no todos los datos estaban completos debido a la ausencia durante una de las mediciones.

2.3 Medidas

2.3.1 Inteligencia no verbal general

Las matrices progresivas generales de Raven (2006) se utilizaron para medir la inteligencia no verbal y se administraron de acuerdo con sus instrucciones de evaluación individual. Se presentaron sesenta patrones visuales de dificultad creciente (A – E). En cada patrón, los niños tenían que elegir la información que faltaba entre seis u ocho alternativas. Para el análisis se utilizaron puntuaciones brutas (número de respuestas correctas). En el presente estudio, el alfa de Cronbach fue de .84, lo que indica una buena confiabilidad.

2.3.2 Decodificación de palabras

los Prueba de Een-Minuut (Prueba de un minuto), se utilizó para medir la decodificación de palabras de los niños (Verhoeven, 1995). los Prueba Een-Minuut es una prueba estandarizada que consiste en una tarjeta de lectura con diferentes palabras en nivel de dificultad creciente. Los niños deben leer correctamente en voz alta tantas palabras como sea posible en 1 minuto. Para el análisis se utilizó el número de palabras leídas correctamente en 1 minuto.

2.3.3 Decodificación de pseudopalabras

El Klepel se utilizó para medir la decodificación de pseudopalabras de los niños (Verhoeven, 1995). El Klepel es una prueba estandarizada que consiste en una tarjeta de lectura con diferentes pseudopalabras (palabras inexistentes) en un nivel de dificultad creciente. Los niños deben leer correctamente en voz alta tantas pseudopalabras como sea posible en 1 minuto. Para el análisis se utilizó el número de palabras leídas correctamente en 1 minuto.

2.3.4 Memoria de trabajo verbal

Los dígitos de la subprueba al revés de la versión holandesa Wechsler Intelligence Scale for Children III (Wechsler, 2005) se utilizaron para medir la memoria de trabajo verbal y se administraron de acuerdo con sus instrucciones de evaluación individual. Los niños tenían que recordar una secuencia de dígitos hablados (entre dos y nueve). Se pidió a los niños que recordaran la secuencia al revés, por ejemplo, cuando se proporcionó la secuencia 5–4–7, los niños tenían que recordar 7–4–5. El número de dígitos en una lista aumentó en uno, hasta que dos secuencias de la misma longitud fueron incorrectas. No hubo límites de tiempo. La puntuación dada fue el número de listas recordadas correctas. Las puntuaciones más altas reflejan un mejor rendimiento. Las puntuaciones brutas se convirtieron en valores estandarizados para los análisis.

2.3.5 Memoria de trabajo visual

Una tarea de memoria de trabajo N hacia atrás con norte = 2 (una variante del procedimiento "n-back" de Gevins y Cutillo, 1993) se utilizó para medir la memoria de trabajo visual. Esta tarea se usa comúnmente en la literatura como una medida de la memoria de trabajo (Baddeley, 2003) y es útil en la investigación experimental (Jaeggi, Buschkuehl, Perrig y Meier, 2010). En la pantalla de una computadora portátil (1366 × 768 píxeles), a los niños se les presentaban números (uno a la vez) y tenían que presionar una tecla cada vez que veían un número que se repetía después de dos estímulos intermedios (norte = 2). Por ejemplo, los niños vieron la secuencia 2–5–2 y tuvieron que presionar la tecla en el segundo 2. Los estímulos se presentaron durante 600 ms con 645 ms entre ellos. A los niños se les presentaron 225 estímulos, de los cuales 32 eran un norte = 2 artículos. La puntuación dada fue el número de respuestas correctas. Las puntuaciones más altas reflejan un mejor rendimiento. Las puntuaciones brutas se convirtieron en valores estandarizados para los análisis.

2.4 Lecciones multimedia

Todos los niños hicieron tres lecciones multimedia, a saber, equilibrio en la naturaleza, el movimiento y la calidez global en diferentes tipos (modalidades) de lecciones multimedia adaptadas al ritmo del alumno: información pictórica presentada con (a) texto escrito, (b) audio o (c) texto y audio combinados. Una lección constaba de 12 diapositivas, incluida una página de título. Los niños pudieron avanzar y retroceder por las páginas a su propio ritmo. Las lecciones se basaron en un libro de texto de sexto grado (1 año por encima del año escolar de los niños van Hoof, Siemensma, Smit y Vegh, 2009) para garantizar que los niños no hayan tenido estas lecciones y permitir la posibilidad de ganar en el aprendizaje. Las imágenes también eran del mismo libro escolar o, cuando no estaban disponibles, del código abierto de Internet. El libro de texto del que se extrajeron las lecciones proporciona una estructura muy similar por lección. Por lo tanto, las lecciones fueron comparables y cada una de ellas incluyó aproximadamente 530 palabras.

Se espera que las imágenes apoyen el aprendizaje (CTML: Mayer, 2005). Hay cinco tipos de imágenes, que disminuyen en valor agregado para el aprendizaje (Carney y Levin, 2002): transformacionales, interpretativas, organizacionales, representativas y decorativas. Las primeras cuatro categorías se consideran beneficiosas para el aprendizaje, mientras que los cuadros decorativos no lo son. Para determinar la relevancia de las imágenes utilizadas en este estudio, 11 expertos en educación (estudiantes de doctorado en Ciencias de la Educación) juzgaron las imágenes y las etiquetaron en las cinco categorías. De todas las imágenes de este estudio, el 6,57% se etiquetaron como transformacionales, el 10,35% como interpretativas, el 10,61% como organizativas, el 35,61% como representativas y el 36,87% como imágenes decorativas. Por tanto, casi dos tercios de las imágenes pueden considerarse beneficiosas para el aprendizaje. Las imágenes utilizadas eran un buen reflejo de las imágenes utilizadas en los libros de texto, lo que se sumaba al entorno de aprendizaje realista que pretendíamos reproducir.

2.5 Adquisición de conocimientos

Los niños estudiaron cada lección una vez, con dos pospruebas (directamente después de aprender y 1 semana después). Las pruebas posteriores consistieron en preguntas de retención y transferencia. A los niños se les presentaron ocho preguntas de retención y cuatro preguntas de transferencia por prueba. Las preguntas de retención eran preguntas de opción múltiple, por ejemplo, “La columna vertebral brinda protección al. A) corazón y pulmones B) cerebro C) médula espinal D) caderas ”. Los niños recibieron un punto por respuesta correcta y, por lo tanto, podrían recibir 8 puntos por prueba posterior sobre retención de conocimientos. Las preguntas de transferencia eran preguntas abiertas, por ejemplo, "¿Qué pasaría si los huesos de un pájaro no estuvieran huecos por dentro?" El primer autor puntuó las preguntas con 0, 1 o 2 puntos según una tarjeta de puntuación. De esta forma, los niños podrían recibir 8 puntos por prueba posterior sobre la transferencia de conocimientos.

Para asegurar la confiabilidad de las pospruebas, se realizó un estudio piloto antes de realizar la presente investigación. Todas las pruebas posteriores se administraron en aproximadamente 40 niños, divididos en tres escuelas (quinto grado). Después del piloto, las preguntas se adaptaron en función de sus medias y se corrigió la correlación ítem-total. Si la media no estaba entre 0,4 y 0,8 o si la correlación ítem-total corregida era inferior a 0,3, se adaptó. De las 48 preguntas de retención, se mejoraron 36 (75%) y de las 24 preguntas de transferencia, se mejoraron nueve (38%). El alfa de las pospruebas fue de .82, lo que indica una buena confiabilidad.

2.6 Tiempo de aprendizaje

El tiempo de aprendizaje se definió como el tiempo (en minutos) que los niños dedicaron a estudiar una lección multimedia, como se extrajo de los datos de registro de las lecciones multimedia de la marca de tiempo de la última diapositiva.

2.7 Análisis de datos

Para responder a las preguntas de la investigación, se realizaron análisis de covarianza de medidas repetidas de modelo lineal general. Primero, se examinó el efecto de la modalidad, con el tiempo (a corto o largo plazo) y la condición (texto o audio) como factores intra-sujetos y con el grupo (dislexia o desarrollo típico) como el factor entre sujetos. Se agregaron memoria de trabajo verbal y visual como covariables. En segundo lugar, se realizó un análisis similar para el efecto de redundancia, pero con las condiciones texto, audio y texto y audio. Se realizaron contrastes simples con la condición de texto y audio como categoría de referencia, ya que queríamos comparar texto versus texto y audio y audio versus texto y audio. Tanto los análisis de modalidad como de redundancia se realizaron por separado para la retención y transferencia de conocimientos.

Luego, se realizaron análisis similares para examinar el tiempo que los niños pasaban en las diversas condiciones (tiempo de aprendizaje). Primero, el análisis se realizó para el efecto de la modalidad, con el tiempo de aprendizaje (texto o audio) como el factor intra-sujeto y el grupo (dislexia o desarrollo típico) como el factor inter-sujeto. En segundo lugar, el análisis se realizó para el efecto de redundancia, con el tiempo de aprendizaje (texto o audio o texto y audio) como factor intra-sujeto y grupo (dislexia o desarrollo típico) como factor inter-sujeto. Al igual que antes, se realizaron contrastes simples con la condición de texto y audio como categoría de referencia. Estos análisis sobre el tiempo de aprendizaje también incluyeron la memoria de trabajo verbal y visual como covariables.

Debido a una enfermedad, cinco niños perdieron uno de los seis cuestionarios (todos a largo plazo): un niño (dislexia) en la condición de audio y cuatro (un niño con dislexia y tres en desarrollo típico) en la condición de texto y audio. De acuerdo con Elliott y Hawthorne (2005), realizar un análisis repetido con una eliminación por lista es un método ineficaz para los datos faltantes. Argumentan que la mejor manera de lidiar con los datos faltantes en medidas repetidas es sustituir un valor faltante por un valor promedio. Los cinco valores faltantes fueron reemplazados por las medias del grupo (dislexia o desarrollo típico).


CODIFICACIÓN DE CARACTERÍSTICAS AUDITIVAS

Si bien las respuestas conductuales al sonido se pueden observar en los bebés a partir de las 28 semanas de gestación (Birnholz y Benacerraf, 1983), la capacidad de los seres humanos para realizar tareas auditivas conductuales madura en los últimos años de la adolescencia (Maxon y Hochberg, 1982 Fischer y Hartnegg, 2004). Como se analiza a continuación con mayor detalle, el sistema auditivo experimenta una maduración prolongada, que es uno de los factores atenuantes en el desarrollo auditivo. Sin embargo, se sabe que los factores no sensoriales, incluida la atención, la cognición y la memoria, juegan un papel crucial en la maduración de la percepción auditiva y en la variabilidad individual que se observa dentro de la edad.

Detección de sonido

Gran parte del trabajo inicial sobre el nivel de estímulo requerido para detectar estímulos se realizó sobre la sensibilidad auditiva en silencio, es decir, en ausencia de ruido u otros estímulos enmascaradores como el habla. Por ejemplo, estaba bien documentado que los umbrales para detectar estímulos en silencio mejoran entre la infancia y la edad escolar temprana (Olsho et al., 1988 Trehub et al., 1988). Los bebés pueden tener umbrales de hasta 25 dB peores que los adultos, la mejora rápida ocurre antes de los 6 meses de edad (Tharpe y Ashmead, 2001), con una diferencia que se reduce a una brecha de 10 & # x0201315 dB cuando los niños alcanzan los 5 años de edad. . Las diferencias en la detección de sonidos también parecen depender de la frecuencia, por lo que la sensibilidad es cercana a la de un adulto a la edad de 6 meses para sonidos de alta frecuencia de alrededor de 4000 Hz, pero no para sonidos de baja frecuencia alrededor de 500 Hz (Olsho et al., 1988 Trehub y col., 1988). No se ha identificado la base fisiológica de esta diferencia y no parece resultar de la maduración de las propiedades conductoras del sistema auditivo periférico o del desarrollo sensorial que tiene lugar durante la infancia y la niñez. Es más probable el hecho de que las tareas utilizadas para medir la percepción no separan los efectos de la capacidad cognitiva, la memoria de motivación y la variabilidad en la representación neuronal de los estímulos, también conocido como ruido interno.

Discriminación de frecuencia e intensidad

La discriminación de frecuencias, que se refiere a la capacidad de percibir un cambio en la frecuencia de los estímulos tonales, experimenta una maduración considerable entre los 3 y los 6 meses de edad. La prueba de esta capacidad se realiza presentando un tren de tonos y cambiándolos a un tono de frecuencia de diferencia de flujo, luego observando si el comportamiento del bebé cambió. Si bien la capacidad de discriminación es menor para los tonos de 4000 Hz que para los tonos de 500 Hz a los 3 meses, a los 6 meses el patrón se invierte y los bebés son mejores para discriminar los cambios impuestos en los tonos de 4000 Hz que los tonos de 500 Hz (Olsho et al., 1987). Sorprendentemente, rendimiento similar a un adulto de

El cambio del 1% en la frecuencia se alcanza entre los 6 y los 12 meses de edad para los tonos de 4000 Hz, donde los bebés pueden discriminar cambios del 2% en la frecuencia. A 4000 Hz eso significaría que los bebés pueden percibir un cambio de 8 Hz (4000 Hz & # x020134008 Hz). Curiosamente, las medidas de discriminación de frecuencia en los niños sugieren que los umbrales son más altos que los observados en los bebés, pero las tareas que se usan con los niños son notablemente diferentes y probablemente coloquen una memoria y una carga de atención más pesadas en el niño que la tarea infantil (Moore et al. , 2008). Por lo tanto, una conclusión importante es que las habilidades auditivas básicas pueden parecer muy desarrolladas en la infancia, si se evalúan utilizando tareas simples que seleccionan para medir la sensación en lugar de la atención o la memoria.

La discriminación de intensidad se refiere a la capacidad de detectar un cambio en el nivel (en dB de nivel de presión sonora) en el que se presenta una fuente de sonido, y esta capacidad se mide típicamente por separado para rangos estrechos de frecuencias (tonos o estímulos de banda estrecha). Se cree que el procesamiento de intensidad refleja un cambio en la velocidad de activación de las neuronas auditivas y un posible & # x0201crecruitment & # x0201d de las fibras del nervio auditivo que son anatómicamente vecinas a aquellas en las que se presenta el estímulo. De manera similar a las medidas de sensibilidad de frecuencia, la discriminación de intensidad se puede probar midiendo la capacidad de un oyente para detectar un cambio de un estímulo de fondo. Los oyentes adultos pueden escuchar diferencias de intensidad tan pequeñas como 1 & # x020132 dB (Sinnott y Aslin, 1985) y, por el contrario, los bebés entre las edades de 5 y 7 meses necesitan aproximadamente 6 dB de diferencia. En lo que respecta a los estímulos, los bebés son particularmente peores que los adultos para los estímulos de baja frecuencia (

400 Hz) que los estímulos de alta frecuencia (4000 Hz), y para los estímulos que tienen un estándar (sonido con el que se comparan los cambios) que es de baja intensidad para empezar. Aquí hay cuestiones metodológicas claras relacionadas con cómo se mide exactamente la sensibilidad y si la tarea es difícil o mucho más sutil para los bebés. Este tema no es exclusivo de la discriminación de intensidad, pero puede parecer más relevante porque no hay muchas demostraciones de capacidad madura para la discriminación de intensidad en la infancia. De hecho, puede darse el caso de que la maduración de la percepción de los cambios de intensidad continúe en la niñez (Buss y Hall, 2009). Es posible que las habilidades cognitivas, incluida la memoria, jueguen un papel importante en las tareas utilizadas hasta la fecha; sin embargo, no se han identificado las tareas que conducen a un desempeño igualitario entre oyentes muy jóvenes y adultos, lo que sugiere que la discriminación de intensidad es más inmadura que la discriminación de frecuencia temprana. en la vida.

Volumen

Otro aspecto de la percepción auditiva que se relaciona con el nivel o la intensidad del sonido es el de la sonoridad percibida de un estímulo. Mientras que la discriminación, mediante la cual medimos si un oyente estaba en lo cierto cuando informó si un estímulo cambió o no, es objetiva, la percepción de la sonoridad es subjetiva. Cualquier percepción subjetiva es difícil de medir en los oyentes, incluidos no solo los bebés y los niños, sino también los adultos. La sonoridad es un atributo de un sonido que coloca la percepción en una escala que va desde inaudible / silencioso hasta alto / incómodo, en respuesta al cambio en el nivel de presión sonora (intensidad). Debido a que no hay una respuesta correcta, es difícil saber cuándo y cómo reforzar a un niño y cómo entrenarlo para que responda. No obstante, parece que, si bien algunos niños tienen dificultades para aprender la tarea, otros pueden desempeñarse de manera similar a los adultos (Serpanos y Gravel, 2000). Debido a que el crecimiento de la sonoridad es anormal en personas con pérdida auditiva, de modo que la sonoridad crece rápidamente en un rango pequeño de intensidades, el énfasis en la comprensión de la importancia de la maduración de la percepción de la sonoridad puede provenir de la literatura audiológica, con niños con discapacidad auditiva. Las evaluaciones de las adaptaciones de audífonos y el volumen percibido de las señales del habla después de la amplificación se vuelven clínicamente cruciales, de modo que la señal del habla se escuche, comprenda y presente cómodamente (por ejemplo, Scollie et al., 2010 Ching y Dillon, 2013). El trabajo futuro sobre psicofísica básica puede ser importante para captar la percepción de los bebés pequeños y los niños con audición típica, y comparar sus habilidades, de modo que las expectativas sean apropiadas para los niños que están equipados con audífonos.


¿Ayuda la animación a los usuarios a construir mapas mentales de información espacial?

Benjamin B. Bederson, Angela Boltman, en The Craft of Information Visualization, 2003

1. Introducción

Durante la última década, los investigadores han explorado el uso de la animación en muchos aspectos de las interfaces de usuario. En 1984, Apple Macintosh utilizó animaciones rudimentarias al abrir y cerrar iconos. Este tipo de animación se utilizó para proporcionar una transición continua de un estado de la interfaz a otro, y se ha vuelto cada vez más común, tanto en la investigación como en las interfaces de usuario comerciales. Los usuarios suelen informar que prefieren la animación y, sin embargo, ha habido muy poca investigación que intente comprender cómo la animación afecta el rendimiento de los usuarios.

Una creencia común es que la animación ayuda a los usuarios a mantener la constancia del objeto y, por lo tanto, ayuda a los usuarios a relacionar los dos estados del sistema. Esta noción fue bien descrita por Robertson y sus colegas en su artículo sobre "árboles de conos", una técnica de visualización 3D que desarrollaron.

“La animación interactiva se utiliza para trasladar parte de la carga cognitiva del usuario al sistema perceptivo humano…. El fenómeno perceptivo de la constancia del objeto permite al usuario rastrear las relaciones de la subestructura sin pensar en ello. Cuando se completa la animación, no se necesita tiempo para la reasimilación ". [19 p. 191].

Investigadores, incluido Robertson, han demostrado a través de estudios informales de usabilidad que la animación puede mejorar la satisfacción subjetiva del usuario. Sin embargo, se han realizado pocos estudios controlados que analicen específicamente cómo la animación afecta el rendimiento del usuario. Estos estudios se resumen a continuación.

1.1 La animación lleva tiempo

Un posible inconveniente de agregar animación a una interfaz o visualización es que la animación, por definición, lleva tiempo. Esto plantea una compensación fundamental entre el tiempo dedicado a la animación y el tiempo dedicado a usar la interfaz. En un extremo sin animación, la respuesta del sistema puede ser instantánea. Los usuarios pasan todo su tiempo usando el sistema. Sin embargo, el usuario puede pasar algún tiempo después de una transición abrupta ajustándose a la nueva representación de información y relacionándola con la representación anterior.

En el otro extremo, cada cambio visual en la interfaz va acompañado de una transición suave que relaciona la antigua representación con la nueva. Si bien los desarrolladores de sistemas animados esperan que esta animación facilite a los usuarios relacionar los diferentes estados del sistema, es evidente que existe una compensación en la cantidad de tiempo que se dedica realmente a la transición. If the transition is too fast, users may not be able to make the connection, and if the transition is too long, the users’ time will be wasted. The ideal animation time is likely to be dependent on a number of factors, including task type, and the user's experience with the interface and the data. In pilot studies and our experience building animated systems, we have found that animations of 0.5 – 1.0second seem to strike a balance. Others have found one second animations to be appropriate [ 9 p. 185 ].

In the worse case, animations can be thought of as an increase in total system response time. Typically, system response time is defined to mean the time between when the user initiates an action, and when the computer empieza to display the result. This definition comes from the days of slow displays on computer terminals. This metric was chosen because users could start planning their response as soon as the first data were displayed. With many animations, however, the user does not see the relevant data until the animation is nearly finished, and thus the animation time is an important part of system response. Así definimos el total system response time to include the animation time ( Figure 1 ).

Figura 1 . Model of user interface timing with animation (adapted from [ 22 p. 353 ]).

In many application domains, the system may need some time to gather data (such as with the World Wide Web), or to process it. In these cases, inserting an animation where a delay is necessitated is not likely to harm productivity because users would have to wait anyway. However, since the delay associated with the Web is often hard to predict, matching animations to the Web retrieval time could be difficult. The bigger problem is when the computer could have responded instantly, and the animation slows down computer's response time.

Researchers have been studying system response time since the 1960s, and as it happens, users’ responses to system delays are more complex than it may at first appear There is much research showing that user satisfaction decreases as delays increase (see the recent report on the World-Wide Web for a typical example [ 21 ]). However, this satisfaction does not necessarily correlate with performance. One paper showed that users pick different interaction strategies depending on system response times [ 25 ]. This paper showed that users actual performance depends on a complex mix of the task, the delay, and the variability of the delay among other things. One typical study shows productivity increasing as delays decreased for data entry tasks [ 12 ]. However, another study found an increase in data entry productivity when delays aumentado to a point [ 3 ].

Thus, the fact that animations take time does not necessarily imply that they will hurt productivity. Since they may, in fact, reduce cognitive effort, as suggested by Robertson and others, we believe that animation may improve some kinds of task performance.

1.2 Types of computer animation

Animation in computer interfaces can actually mean many different things. Baecker and Small summarized many of the ways that objects can be animated on computer screens [ 1 ]. Animation can consist of moving a static object within a scene, or the object may change its appearance as it is moved. A scene may be larger than can fit on the screen, and the viewpoint can be changed with animated movement by rendering “in-between frames” part way between the starting and ending state. There are numerous other types of animations as well.

In general, animation is often used to help users relate different states in the interface. These changes can be in the data within the interface or in the interface itself. Some systems that use animation of the data include the Information Visualizer [ 9 ], Cone Trees [ 19 ], the Continuous Zoom system [ 20 ], and WebBook and WebForager [ 10 ]. Chang and Ungar discussed the application of animation principles from the arts and cartoons to user interfaces, showing that more than just simple movement of interface objects is possible [ 11 ].

Some researchers have investigated the use of animated icons [ 2 ]. Others have used animation to try to improve teaching how algorithms work [ 8 , 24 ]. There are also several user interface systems that include explicit support for creating animated interfaces. A good example of this is the Morphic system [ 18 ].

1.3 Zoomable User Interfaces

We are interested in understanding animation because for the past several years, we have been exploring Zoomable User Interfaces [ 4 , 5 , 6 , 7 , 15 , 17 ]. Zoomable User Interfaces (ZUIs) are a visualization technique that provides access to spatially organized information. A ZUI lets users zoom in and out, or pan around to view much more information than can normally fit on a single screen. We have developed a system called Pad++ to explore ZUIs.

The ZUIs we have built typically provide three types of animated movement, as well as other kinds of animated transitions such as dissolves. The three types of animated movement are motion of objects within a scene, manual change of viewpoint (through various steering mechanisms), and automatic change of viewpoint (during hyperlinks).

We believe that animating changes of viewpoint during hyperlinks are the most important kind of animation in Pad++, since these animations appear to help users understand where they are in the information space. They are also easy to understand and use. As one child using KidPad (an authoring tool for children within Pad++) said, “With [traditional hypertext] it is like closing your eyes and when you open them you're in a new place. Zooming lets you keep your eyes open” [ 14 ].

We and others have also used Pad++ to make animated zooming presentations, and regularly receive very positive feedback from audiences. However, as HCI researchers, we want to develop an understanding of exactly where, if at all, animated ZUIs perform better than traditional approaches.

As we started to design a study that would help us to understand the benefits of ZUIs, we realized that the animation we employ is orthogonal to the use of zoom to organize data. It is possible to have an interface with or without animation, and with or without a multi-scale structure. In order to understand ZUIs better, we decided to attempt to understand the effects of animated movement, and multi-scale structure separately.

Thus, in this paper, we start by examining the most basic and fundamental kind of animation used in ZUIs. We examine how animated changes of viewpoint during hyperlink transitions affects users’ ability to build a mental map of a flat information space. We specifically chose not to investigate zooming or multiscale structures in this work because we felt zooming would be a confounding variable to the animation effects we are investigating.

1.4 Previous Studies

There have been few studies that looked specifically at how animation affects user's abilities to use interfaces. One study looked at transition effects (such as a dissolve) and animation of an object within the view [ 16 ]. This study found that both a dissolve transition affect and animated motion of objects within a scene independently helped users to solve problems. This study is important because it motivates the common belief and intuition that animation can help user's maintain object constancy and thus improve task performance. However, this study did not address animation of viewpoint which is the primary focus of the current study.

Another study that is perhaps more relevant looked at animating the viewpoint of a spatial information visualization [ 13 ]. That study compared users’ ability to find items where more items than could fit in a single display were used. Different navigation techniques were used to move through the items (scrollbars, zoom, and fisheye view), and each navigation technique was tested with and without animation. In this experiment, the use of animation did not have a significant affect on any of the navigation techniques. However, animation was implemented with just a single in-between frame. For animation to be perceived as smooth apparent movement, there must be several in-between frames, and they must be shown quickly (typically greater than 10 frames per second, and preferably 20 or 30 frames per second). Thus it does not appear that the results accurately describe the effects of animation. One interesting aspect of the study that does appear significant, but not relevant to animation, is that the zooming visualization technique performed significantly better than either the scrollbar or fisheye view visualization technique.


Differential Diagnosis of (C)APD

The behavior characteristics of children with auditory processing obviously can be very similar to those of persons who have attention deficit, language problems, learning disabilities, reading or spelling problems. The similarities in the behavioral manifestations of all of these have led people to question whether or not these disorders could reflect a single developmental disorder. There is not nearly enough time to go into that theory, but there are ways to tease out the differences. We need to be able to distinguish APD from attention deficit-hyperactivity disorder (ADHD), language impairment, cognition problems, memory issue, pervasive developmental delays and chronological age. That is one of the reasons I find it very important for us to have evaluations from other professionals, to give the appropriate types of tests for the complaints/symptoms, and to look as much as we can specifically at the auditory modality. It is not possible to make a differential diagnosis in every case, but I try to make sure that I have as much information as possible to cover all my bases.

Interpretation of AP Assessment Results

Data from an AP assessment may be analyzed for four general purposes: to identify if the child has APD or not to identify what underlying processes are affected to provide site of lesion information, and for development of an APD sub-profile. Putting patients into a profile can help you create a management program.

Profiles. According to Bellis and Ferre (Bellis, 2003), there are three primary subtypes or profiles of APD based upon the presumed anatomical site of dysfunction: auditory decoding deficit, with the region of dysfunction being the left auditory cortex prosodic dysfunction stemming from the right auditory cortex and integration dysfunction, which is a problem with the corpus callosum. Under each of these profiles is a list of how the child will perform on behavioral tests and electrophysiological tests, classroom manifestations, and then recommendations. If I did not have a profile to classify my identified patients, it would be very difficult to make management recommendations. For example, you cannot make blanket recommendations such as every child needs to use an FM system, because if they do not have difficulties processing in noise but still have difficulties with the temporal aspects of speech, an FM system will serve no purpose.

Katz (2002) has four categories or profiles: decoding, tolerance fading memory, integration, and organization. I find the SSW to be an invaluable tool in helping me recommend academic modifications that I can make for a child. It is sensitive to auditory processing problems, but I also think that it is very sensitive to learning problems and memory problems. I like that about the SSW and Katz&rsquo whole battery because it can truly guide me in developing a management profile.

Neuroplasticity and Remediation

Let's think about management and neuroplasticity for a second. We talked briefly about using evoked potentials to monitor the neuroplasticity of the system pre- and post-intervention for the APD. We know the CANS is plastic. It is most obvious to us during a young child&rsquos development, but it remains malleable throughout life or we could never learn. It gives us the opportunity to change, but only when it is done in a very intense and timely fashion. Frequency is more important than duration. Therapy for once a week for an hour is not as effective as twice a week for half an hour. The more therapy you can give them, the better. Because we have a hard time quantifying how much time it is going to take for the system to remap, it is hard to know when to change or maintain what we are doing. That is why we need tools to monitor efficacy.


Gene Regulatory Networks

Yen-Chung Chen , Claude Desplan , in Current Topics in Developmental Biology , 2020

Abstracto

los Drosophila visual system integrates input from 800 ommatidia and extracts different features in stereotypically connected optic ganglia. El desarrollo de la Drosophila visual system is controlled by gene regulatory networks that control the number of precursor cells, generate neuronal diversity by integrating spatial and temporal information, coordinate the timing of retinal and optic lobe cell differentiation, and determine distinct synaptic targets of each cell type. In this chapter, we describe the known gene regulatory networks involved in the development of the different parts of the visual system and explore general components in these gene networks. Finally, we discuss the advantages of the fly visual system as a model for gene regulatory network discovery in the era of single-cell transcriptomics.


Why Aren't There Mammals in Super Vivid Colors Like There Are Birds and Bugs?

Plumage. An incredible world, for an incredible phenomenon. Say it with me now: plumage. Picture the colors, their variety and richness. Picture, while you’re at it, some other stuff relevant to this week’s Giz Asks , such as bugs that look shaped from stained glass and sea creatures that look like they’ve been doused in neon paint.

Now picture a person. Any person will do. Pathetic, right? We—and, really, mammals generally—just do not stack up. Below, read along as a panel of experts explain why.

Matthew Toomey

Assistant Professor, Biological Science, University of Tulsa

To understand why brilliantly colored mammals are uncommon, we must consider the world in which mammals first evolved. This was a world dominated by dinosaurs that were most likely active during the day and had excellent color vision, much like modern birds. Many of these dinosaurs were predators and a major threat to the relatively small and defenseless early mammals. In response, it appears that early mammals evolved inconspicuous coloration, and nocturnal and underground ways of life. In these dark environments, their senses of smell and hearing took priority. In the dark, color vision is of little use and early mammals lost much of their color vision.

This “nocturnal bottleneck” is apparent in the visual capabilities of mammals today. Most living mammal species perceive color with just two types of photoreceptors tuned to sense either the blue or the red portion of the light spectrum. Therefore, most mammals have limited ability to discriminate color, and many hyper-vivid hues would not be discerned by them. In contrast, bird color vision involves four different photoreceptor types sensitive to ultraviolet, blue, green, or red portions of the spectrum allowing them much finer discrimination of the colors they use to attract and intimidate one another. Interestingly, some primates, like humans, have regained more complex color vision capabilities and among these species vividly colored skin patches have evolved, such as the colorful faces of mandrills.

The “nocturnal bottleneck” may have also limited the palette of pigments available to mammals. Whereas the bodies of birds, insects, and reptiles are colored with a range of pigments, mammal hair and fur is colored with just one class of pigment molecules, melanins, which produce a limited variety of colors ranging from black to brown and auburn. While other animals employ melanin in complex optical nanostructures to create iridescence in their feathers and scales, it is exceedingly rare in mammals. Like complex color vision, it is likely that these mechanisms of vivid-color production were lost as our distant ancestors lived their secretive nocturnal lives in the shadow of the dinosaurs.

Richard Prum

Professor, Ornithology, Ecology, and Evolutionary Biology, Yale University

This relates to what we call sensory ecology: how the sensory system is used in the lives of different organisms.

Color is really about communication—all these beautiful, brilliant colors are really communication devices. It’s about what animals prefer, what they like, what’s memorable. A prerequisite for this sense, which I’d argue is aesthetic, is cognitive ability, and the ability to choose—to make social choices, or sexual choices. Who you mate with, who you hang out with, etc. All these things are in play when you’re talking about why a certain group has the colors it does.

These groups will use what they have available to make color, which means pigments, i.e. molecules that differentially absorb visible light, like paint or dye or structural colors, which are made by optical interactions of light with the material of an object (so: blue skies, rainbows, etc.). So you’ve got, on the one side, the biology of cognition and social behavior, and on the other you’ve got what a given group has to work with materially to make color.

Birds are tetrachromatic—they can just blow us away in terms of color vision. They can see colors we can’t even imagine, like ultraviolet yellow or ultraviolet green. Plus, they’ve got rich social lives—they hang out, they fly around, and most of them are engaged in mate choice. They’ve also got a certain freedom of choice. So what do birds do with that freedom? They choose beautiful things—things that are subjectively desirable. And that evolves, and leads to what I call aesthetic radiation (as distinct from adaptive radiation, which is just variations in phenotype that function in a material way to do something new).

So that’s half the question: it explains why birds are so colorful to begin with. But what’s going on in mammals?

Well, they’ve got the cognitive capacity, but what they don’t have are the other things—color-vision and, frankly, opportunity for choice. The ancestor of placental mammals was walking around in the dark for like 100 million years trying to keep from being eaten by dinosaurs. During that time, they lost the capacity for complex color-vision. And if you can’t see a color, you’re not going to evolve social signals that are colorful, period. Also, most mammals are still going around at night: bats and rodents comprise the majority of mammals, and they’re both nocturnal.

That said, one lineage of placental mammals did evolve color-vision: old-world primates. They don’t match up to your average lizard or bird or even goldfish, but they do have a lot of color: the face of a mandrill, for instance, is blue and African macaques have vividly blue scrotums.

Geoff Hill

Professor and Curator of Birds at Auburn University

Humans are atypical mammals. Most mammals are nocturnal—most mammals are rodents, who live in burrows. When you deal with your dog, you kind of get the impression that they perceive the world differently than we do—they want to smell you first, which is typical of most mammals, whose world is less vision-based and more smell-based. Most mammals don’t even have full color vision like humans do. We have three-dimensional vision (which is why you put three colors in a printer). Dogs, cows, and most other mammals only have two-dimensional vision—they don’t see colors like we do. What all of this means is that they don’t display very often with color. Where we do see some colors are in primates apes like mandrills are among the most colorful animals. So that’s basically it: mammals are more prone to smell, and humans and birds are more prone to look.

Innes Cuthill

Professor, Behavioral Ecology, University of Bristol

One factor—in reference to things like iridescence (peacocks, morpho butterflies, jewel beetles)—is the nature of their pelage. Hair is pretty unstructured (tubes of keratin with melanin pigment), whereas bird feathers, butterfly wings and insect cuticles in general, are complex multi-layer structures—which is just what you need to generate structural colors created by interference of light rays.

Kevin McGraw

Director for Undergraduate Research in Life Sciences and Co-Director of Animal Behavior PhD Program at Arizona State University

There are in fact some very colorful mammals! Golden lion tamarins and red pandas have bold red-orange pelage, Honduran white bats have vivid yellow facial skin, and several primates, such as mandrills, have quite ornate red and blue skin colors on their face. Moreover, a handful of mammals like skunks and zebras have bold coat patterns (i.e. contrasting black and white). That said, the vast majority of mammals do in fact have a drab appearance, consisting mostly of shades and earth tones. This is largely thought to be a product of their use in camouflage and disruptive coloration, and also linked to the history of mammals having poor color vision (i.e. constraining their use of diverse color signals).

Mark E. Hauber

Professor, Evolution, Ecology, and Behavior, University of Illinois

There ARE at least a few brightly colored and distinctly patterned mammals. These vary from the blue-red-yellow facial and anal regions of male mandrills to the best known black-and-white stripes of zebras, but also the deep orange pelage of the golden lion tamarins and the algal-green fur of long-lived sloths.

Body parts of mammals can also be bright focally, especially testicles (blue in vervet monkeys, white in howler monkeys, red in Japanese macaques), and, of course, the eyes, varying from light blue to deep brown in humans and huskies, and orange-reds in slender loris.

Finally, we shouldn’t forget the aquatic mammals: the conspicuously white-and-black patterned orcas and the bright pink river dolphins of the Amazon.

Nina G. Jablonski

Professor, Anthropology, Penn State

Y George Chaplin

Senior Research Associate, Anthropology, Penn State

First of all, there are some mammals with vivid coat colors, specifically vivid yellow and orange coats. Think of the golden lion tamarins of Brazil and the golden langurs of Bangladesh, for instance.

Second, there are mammals who have vivid-colored skin. Male mandrills and grivets (both African monkeys) and golden monkeys from China have bright blue skin on their noses and backsides. These blue colors are optical colors, not produced by pigment, but by highly oriented bundles of collagen in the skin which scatter visible light. This process, called Rayleigh scattering, is the same process which makes the sky appear blue. The same animals also have bright red skin on their backsides (and mandrills on their noses, too) produced by hemoglobin in the superficial blood vessels. Hemoglobin also makes the estrous swellings of many female primates appear bright red.

Back to coat colors: Basically, mammalian hair gets its color from two melanin pigments, the yellow-red pheomelanin and the intensely dark brown eumelanin. The melanin producing cells in mammalian hair follicles produce different mixtures of these pigments at different times to produce coats of many different colors. This makes it possible for mammals to produce anything from bright yellow to near black, as well as the absence of pigment—white, and almost every conceivable shade of grey, brown, reddish-brown, and greeny brown, in between. In contrast to birds, mammals lack the ability to produce colored hairs containing pigments called carotenoids. This is why you don’t see mammals colored like cardinals or scarlet tanagers. But, interestingly, the blue colors of bird feathers are also produced by optical effects, produced by light impinging on oriented collagen bundles.

Greg Grether

Professor, Ecology and Evolutionary Biology, UCLA

I think that can largely be explained in terms of the opportunity that animals have to use color signals in communication. Most colorful vertebrates are diurnal (active during the day) and have excellent color vision, while most mammals are nocturnal or crepuscular, lack color vision, and rely more on scent and sound for communication. Primates are an exception that supports the hypothesis—most primates are diurnal and have color vision, and some are quite colorful. Male mandrills are probably the best example.

Not all colorful invertebrates have color vision, but the ones that do not are probably signaling to potential predators that do have color vision, rather than to each other (e.g., warning coloration of bees and wasps). However, the conventional wisdom that insects do not see in color is wrong. Many do, including butterflies and dragonflies.

Tim Caro

Professor Emeritus, Wildlife, Fish and Conservation Biology, UC Davis, whose research focuses on animal coloration, among other things

Compared to birds or insects, mammals show a paucity of sexually selected coloration. In most species of mammal, female and male coloration does not differ (called sexual dichromatism) neither sex changes color at time of breeding and neither sex is particularly flamboyant or gaudy in appearance.

Sexual selection consists of two processes: intersexual selection, most commonly between males, over access to females or resources on which females depend, and intrasexual selection, usually by females choosing males with whom to mate. Both processes can drive flamboyant coloration in (usually) males.

There are factors relating to sexual selection predisposing mammals to be drab. In contrast to birds, most species of mammals are polygynous, with males employing coercion to corral females, which limits female choice of gaudy males. Most female mammals are philopatric (they don’t disperse before breeding), limiting females’ ability to choose mates. Mammals are limited in their movement compared to birds, restricting females’ ability to sample males for extra-pair copulations. In addition, male mammals rarely care for offspring, excluding one of the factors on which female birds base their mate choice. So, a priori, we might expect rather little flamboyant ornamentation in male mammals.

Some solutions: One possibility is little opportunity for sexual selection as presented above. An alternative argument is that the visual system of most mammals is dichromatic, whereas birds are tri- or tetrachromatic, so there is less necessity to rely on visual as opposed to olfactory or auditory sex differences. Another related explanation, again untested, is that most mammals are nocturnal but most birds are diurnal. At present these possibilities are difficult to tease apart moreover more than one may be relevant.

Laszlo Talas

EPSRC Innovation Fellow & Proleptic Lecturer in Animal Sensing and Biometrics at the University of Bristol

The colors of mammalian hair are primarily determined by the presence of two natural pigments: eumelanin and pheomelanin. Eumelanin is responsible for black and brown colors, while pheomelanin can create yellow and reddish hair. This means that, for mammals, it is biochemically impossible to manufacture vivid colors like bright green or deep blue using hair. The orange coat of a tiger or an infant langur is as far as it goes.

Vivid colors often evolved through sexual signaling in order to impress the opposite sex the bright feathers of a peacock would be one of the most famous examples. However, most mammals are actually red-green color blind, meaning they cannot tell apart red and green. This is true to almost all mammals, except us, Old World monkeys and some New World monkeys. Therefore bright vivid colors would not be much use to find mates.

Another strong selective force is camouflage, however brown and grey coats seem to work at most places. Many mammals can turn white during winter and remain hidden in the snow. Often prey is color blind, too: While an orange-brown tiger might be easy to spot against green vegetation by humans, a deer (the animal a tiger is really trying to hide from, not us) will struggle to tell apart the orange coat from green leaves for the reasons outlined above.

Almut Kelber

Professor, Functional Zoology, Lund University

There are a few exceptions, like an African monkey, of which Darwin already stated, “no other member in the whole class of mammals is colored in so extraordinary a manner as the adult male mandrill’s”. With their red and blue faces, this exception brings me to the first two answers to the question.

Brilliant colors are often used for communication with conspecifics, and most mammals use chemical and acoustic signals for purposes such as finding the best mate or marking a territory rather than visual signals. So there is less need of bright colors as signals among mammals. So why is the mandrill different?

A main reason is that old-world monkeys (and howler monkeys) differ in their visual system from other mammals in a way that makes them more similar to birds. Birds (as lizards, crocodiles and many fish) have highly sophisticated color vision based on four visual pigments allowing them to see more shades of color than us humans. Most mammals only have two pigments, and that reduces their color world dramatically, so even if they were colored, they would not appreciate it. The old world monkeys (the branch including us humans) had a duplication of one of the pigment genes and mutations, which together gave us three pigments, and a much more colorful world—even though not as colorful as that of birds, as we are missing all shades of ultraviolet which many birds can see.

So why do mammals only have two visual pigments? This gets us to the third answer: Unlike birds, early mammals survived the age of dinosaurs as mostly nocturnal and often subterranean animals. Their eyes evolved to see well at night, on the cost of seeing the brilliant colors in bright light, which they rarely saw. If these early mammals ever had brilliant colors, they must have lost them back then, as they had no need for them if they would not be not seen. And most often, production of these colors is costly, so they are easily lost.

Many bugs don’t have brilliant colors to attract mates, but to warn predators who want to eat them. Many bugs are eaten by birds so they are for birds to see and avoid them, either because they taste badly, are poisonous, or mimic other bugs that are.

Back to mammals and why they have their “dull” colors. The most mechanistic answer then is that we mammals mostly use brown, black and red pigments (melanins) and lack both colorful pigments and sophisticated mechanisms to produce the structural colors that underlie many green, blue and violet shades in butterflies, beetles and birds. However, the mandrill shows that this can evolve again when an animal evolved a better sense of color vision, within less than 30 million years.

Matthew Shawkey

Associate Professor, Biology, Ghent University

A few mammals have bright colors, for example the bright red and blue faces and rumps of mandrills. However, such bright skin color is certainly rare, and I only know of a few examples of somewhat brightly colored hair, for example the iridescent colors of some golden moles. So why indeed are bright colors so rare in mammals? From a proximate (mechanistic) perspective, they may have fewer ways to produce color. The only pigment that mammals use is melanin, which can produce a variety of blacks, browns and greys. Thus, they lack the pigments such as carotenoids needed to produce bright reds and yellows. Outside of pure pigmentary colors, birds and insects can produce so-called structural colors, produced by the nanoscale arrangement of materials within their feathers or cuticle. These make some of the brightest colors in nature, such as the flashing feathers of hummingbirds, but are virtually non-existent in mammals. Perhaps the chemistry, morphology, or developmental patterns of hairs preclude them from making these nanostructure. From an evolutionary perspective, mammals evolved as nocturnal animals, and in the shadows of dinosaurs, so perhaps camouflage has been more significant than mate choice in the evolution of their colors.


Ver el vídeo: Sistema Auditivo resumen (Agosto 2022).