Saltar al contenido principal
LibreTexts Español

4.2: Aplicaciones inspiradas en los sistemas mecano-sensoriales naturales

  • Page ID
    85610
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    4.2 Aplicaciones inspiradas en los sistemas mecano-sensoriales naturales

    Existen muchas aplicaciones potenciales para los sistemas mecano-sensoriales. Como se puede ver en las aplicaciones de ejemplo que siguen, existen numerosos paradigmas naturales a considerar para la inspiración de ideas de diseño novedosas. Por ejemplo, lechuzas, grillos, murciélagos, delfines y cócleas de primates representan una muestra de diseños realizados al intentar demostrar o construir sistemas mecanosensoriales basados en inspiración biológica. También hay muchas aplicaciones útiles que resultan en una divergencia de la bio-mimetismo, como transformar la energía fotónica en energía sonora y permitir al organismo (persona ciega) la oportunidad de aprender a ver a partir de señales auditivas estimuladas.

    4.2.1 Vía Auditiva del Lechuza común [Lazz90]

    La lechuza común localiza a su presa mediante el uso de retardos de tiempo entre las dos orejas para determinar el acimut (ángulo directamente hacia adelante) y las variaciones de intensidad para determinar la elevación (ángulo desde el horizonte) con respecto a sí misma. El resultado es un mapeo conforme sobre el colículo inferior (IC) de eventos sonoros en el espacio auditivo. Cada fuente de sonido se mapea a una ubicación específica en el CI que representa acimut y elevación con respecto a sí misma [Lazz90].

    Las señales auditivas de la cóclea se dividen en dos vías primarias que finalmente se encuentran en el CI. La primera es la vía de intensidad y pasa a través del núcleo angularis (NA), codificando información de elevación. Esto es posible en parte debido a las variaciones de absorción sonora causadas por los patrones de plumas en la cara y el cuello. La segunda es la vía de codificación de tiempo y pasa a través del núcleo magnocelularis (NM) hacia el núcleo laminar (NL) donde se encuentra con las señales correspondientes de la ruta de codificación de tiempo desde el lado opuesto.

    La Figura 4.2.1-1 representa las dos vías de información que conducen al CI. Los detalles del CI se ahorran para enfocarse más en la estructura del camino. La Figura 4.2.1-2 muestra un concepto nocional para la detección de coincidencias en los circuitos de temporización de la NL. Según se dibuja, la ubicación espacial de las señales de salida representa la misma dirección espacial (acimut o rumbo) de la fuente de sonido de origen.

    Modelo de estilo de diagrama de flujo de vías de información sensorial en la lechuza común

    La vía sensorial para las señales de intensidad es más directa que la de las señales de temporización, ya que se usa el retraso del estímulo del lado opuesto.

    Supongamos que el tiempo total que tarda el sonido en recorrer la distancia de una oreja a otra se divide en 8 retardos de tiempo, cada uno denotado en Δt, como se muestra en el modelo (Figura 4.2.1-2). Un estímulo en el lado izquierdo inmediato del búho (lado izquierdo de la Figura 4.2.1-2) viajaría a través de la fila inferior de retrasos antes de que el lado derecho recibiera el estímulo, por lo tanto resultando en una correlación en el lado izquierdo. De igual manera, un estímulo en el lado derecho inmediato del búho dará como resultado una correlación en el lado derecho del modelo. Los estímulos entre la izquierda o la derecha inmediatos resultarían en una correlación en algún lugar entre estos dos extremos.

    Sistema Auditivo de Codificación de Tiempo

    La arquitectura de codificación de tiempo de la lechuza común se implementa en el circuito de localización auditiva de silicio [Lazz90] como se muestra en la Figura 4.2.1-3. El sonido ingresa al sistema desde las orejas izquierda y derecha hacia la respectiva cóclea de silicio descrita en la sección anterior. A partir de ahí 62 tomas equidistantes (que representan las neuronas de la membrana basilar en la cóclea natural) codifican la firma espectral a cada lado. Cada toma alimenta un circuito de celdas pilosas que realiza rectificación de media onda, compresión no lineal y generación de potencial de acción. Los potenciales de acción en la versión de silicio son pulsos de altura fija de ancho fijo. Al igual que en las neuronas naturales, la frecuencia de los pulsos de potencial de acción representa la intensidad, y el tiempo preserva las características temporales de la señal.

    Los detalles de los circuitos pilo-célula se muestran en la Figura 4.2.1-4. El rectificador de media onda y la compresión no lineal simulan las células ciliadas internas y el generador de potencial de acción simula las células ganglionares espirales naturales que toman señales de la cóclea en búhos, primates y otras especies. Para la lechuza común, estos circuitos alimentan las líneas de retardo del modelo NL como las modeladas en la Figura 4.2.1-2.

    Modelo de codificación de tiempo en Nucleus Laminaris en la lechuza común

    Debido a los elementos de retardo, se producirán correlaciones en diferentes ubicaciones de estímulo.

    Diagrama del sistema auditivo de codificación de tiempo con entradas izquierda y derecha procesadas por circuitos de células ciliadas y circuitos modelo NL
    Figura 4.2.1-3. El sistema auditivo de codificación de tiempo imita el sistema de lechuza común [LAZZ90].
    Detalle seleccionado de la figura 4.2.1-3 del circuito de células pilosas de lechuza común
    Figura 4.2.1-4. Detalles del Circuito de Celda Capilar de Búho de Silicio de la Figura 4.2.1-3 [LAZZ90].

    4.2.2 Implementación Robótica de Fonotaxis de Cricket [Webb01, Webb02]

    Fonotaxis de Cricket

    El grillo macho da una llamada de apareamiento para atraer grillos femeninos, y una hembra puede encontrar a un macho específico usando fonotaxis, lo que significa movimiento en respuesta al estímulo sonoro. Ante la presencia de otros ruidos, la hembra utiliza estas señales auditivas para cubrir de 10 a 20 metros a través de vegetación y terreno y alrededor de obstáculos para encontrar al macho llamador. La fonotaxis se ve típicamente como una serie de movimientos de arranque-parada con giros correctivos.

    El “robot de cricket” que implementa la fonotaxis en este ejemplo se puede modelar como primero reconociendo la canción correcta, y luego moviéndose hacia la fuente. Cada especie tiene un sonido específico caracterizado por una frecuencia portadora y una estructura de repetición temporal. Un patrón típico es una sílaba de diez a treinta segundos de un tono puro (alrededor de 4-5 kHz) agrupada en patrones distintivos, o chirps. Una señal principal que sirve para discriminar entre especies es el intervalo de repetición de sílabas en la canción. Se requiere el correcto reconocimiento de este canto conespecífico (misma especie) antes de la migración hacia la fuente.

    El grillo no utiliza señales de retardo de tiempo entre dos orejas como lo hacen los mamíferos ni puede detectar la fase de la señal entrante. La geometría de la estructura anatómica compensa esta incapacidad y le da al grillo la misma capacidad sin los circuitos complejos. Tiene un tímpano en cada pata conectado por un tubo traqueal lleno de aire y dos aberturas adicionales en el cuerpo del grillo. El sonido llega a cada tímpano en dos caminos primarios: uno es directo, golpeando el tímpano del mismo lado del grillo que el sonido, y el otro es indirecto, proveniente del lado opuesto del cuerpo del grillo. Dado que estas vibraciones acústicas se encuentran en lados opuestos del tímpano, su efecto generalmente se cancela. Sin embargo, hay un retraso debido a una mayor longitud de trayectoria, así como un retraso debido a las propiedades del tubo traqueal. Estos retardos provocan diferencias de fase entre las señales acústicas opuestas para que las amplitudes no se cancelen.

    Implementación Robótica

    El modelo robótico de fonotaxis de cricket incluye una fuente de sonido electrónica programable para modelar la llamada de cricket, y una red neuronal que modela la dinámica de los potenciales de membrana celular. El modelo de red neuronal no es una arquitectura genérica, sino una arquitectura específica diseñada para imitar más de cerca la estructura neuronal del grillo:

    Las arquitecturas representan procesos neuronales con niveles apropiados de detalle en lugar de usar abstracciones de redes neuronales artificiales estándar. Se incluyen propiedades neuronales individuales y conectividad identificada, en lugar de aplicar métodos de entrenamiento a arquitecturas genéricas”. [p. 3, Webb01]

    El robot es una modificación de un robot miniatura existente (Khepera, “K-team 1994”) que tiene 6 cm de diámetro y 4 cm de alto. Fue elegido ya que está más cerca del tamaño del cricket que otros robots disponibles, aunque este tamaño sigue siendo mucho más masivo que un grillo. Una modificación para orejas agregó otros 6 cm de altura. El robot tiene 2 ruedas motrices y 2 ruedas y está programado en C en un procesador 68332. Debido a las limitaciones de velocidad del procesador, el modelo neuronal tuvo que ser revisado (simplificado) para funcionar en tiempo real. Este es un tema común en los sistemas biomiméticos: Aunque los procesadores convencionales son 5 o 6 órdenes de magnitud más rápidos que las neuronas biológicas, aún debemos hacer sacrificios en los cálculos para lograr cualquier apariencia de biomimética en tiempo real.

    La Figura 4.2.2-1 muestra las interconexiones neuronales simuladas para el robot grillo. La separación entre las orejas del micrófono se puede variar pero se establece en una cuarta parte de la frecuencia portadora de especies imitadas. Otro retraso de un cuarto de periodo se programa en la conexión inhibitoria para simular el retraso en el tubo traqueal. El inversor (ganancia de —1) simula los efectos opuestos de las vías directas e indirectas que golpean el tímpano en lados opuestos. En los grillos reales, la neurona auditiva envía señales al cerebro, donde aún no se entiende la conectividad y funcionalidad. El modelo robótico incluye potenciales de membrana que dan como resultado la generación de señal de potencial de acción (pico), pero la reducción a cuatro neuronas simples se realizó en la implementación robótica en parte para mantener la simulación operando en tiempo real.

    Modelo de fonotaxis neuronal de Webb

    Figura 4.2.2-1. Modelo de Fonotaxis Neuronal de Webb en Robot Cricket. [Webb01]

    Variable de separación del oído del micrófono, establecida en un valor predeterminado de ¼ de longitud de onda; vía inhibitoria indirecta (ganancia de —1) con retardo programable (z -1), también establecida en un valor predeterminado de ¼ de longitud de onda.

    Cada vez que una neurona motora en la Figura 4.2.2-1 da como resultado un potencial de acción, el robot se mueve incrementalmente en esa dirección. Las neuronas auditivas se disparan (envían potenciales de acción) cuando se excede el umbral de disparo. Todas las neuronas exhiben una integración con fugas, de modo que los ruidos extraviados no darán como resultado potenciales de acción. Una entrada constante más fuerte que la señal que se está filtrando debe mantenerse para llevar a la neurona a disparar un potencial de acción. Sin embargo, las neuronas auditivas se disparan rápidamente una vez iniciadas. Esto se modela devolviendo el potencial de membrana más cerca del umbral (-55 mV típ.) después de un potencial de acción en lugar de regresar al potencial de reposo (-70 mV típ.)

    La frecuencia de llamada es de 4.7 kHz para que coincida con una especie específica, el Gryllas bimaculatus. Los micrófonos del robot se colocaron a 18 mm de distancia, lo que representa un cuarto de longitud de onda de la frecuencia de llamada de 4.7 kHz. Un retraso adicional de un cuarto de período también se programa en la circuitería como un retraso de 53 us. Cuando se recibe una señal desde un ángulo recto con el rumbo, entonces los retardos combinados se sumarían a media longitud de onda, que, al invertirse, se combinarían con la señal directa para dar una señal máxima para que la neurona motora gire al robot hacia el sonido. La neurona motora opuesta recibiría la señal directa y la señal indirecta invertida al mismo tiempo, cancelando así. Cuando directamente frente al robot, se recibiría la misma señal en ambas neuronas motoras para que el giro izquierda-derecha se cancelara, y el robot continuaría recto.

    Resultados y discusión [Webb01]

    La separación física del oído de ¼ de longitud de onda y el retardo programable de ¼ de longitud de onda para una portadora de 4.7 kHz demostraron imitar la observación biológica. Los resultados experimentales mostraron que el robot migró hacia una señal de 4.7 kHz más fuertemente que una señal de 2.35 kHz e ignoraría una señal de 9.4 kHz. También se movería hacia la señal de 4.7 kHz cuando se reproduce simultáneamente con una señal de 6.7 kHz.

    Al sintonizar las constantes de tiempo, la respuesta podría hacerse selectiva para un paso de banda de tasas de sílabas. En un ejemplo, el robot respondió a los cambios en la dirección de la señal cuando las sílabas tenían una longitud de 20 a 30 ms pero no respondía por sílabas más cortas o más largas. La programabilidad integrada en este robot de cricket permitirá estudiar más a fondo las hipótesis alternas de cómo los grillos y otras especies animales realizan la fonotaxis. El sistema también permitirá estudiar más a fondo las capacidades no fonotaxis de dicho sistema sensoriomotor.

    Aunque el modelo de cuatro neuronas no imita la complejidad del cerebro de grillo, sí demuestra una configuración mínima para cumplir funciones básicas de fonotaxis, como seguimiento de fuentes de sonido, selectividad por frecuencias específicas, selectividad por frecuencias sílabas, comportamiento de seguimiento sin entrada direccional y comportamiento de seguimiento en presencia de otras fuentes de sonido.

    4.2.3 Cóclea de Silicio Mead/Lyon [Lyon89]

    La cóclea de silicio Mead/Lyon [Lyon89] es una línea de transmisión de circuitos amplificadores de segundo orden ilustrada en la Figura 4.2.3-1. Las etapas de primer orden son circuitos simples como diferenciadores o integradores, cuyas respuestas escalonadas suelen ser una respuesta exponencial hacia una condición de estado estacionario. Las etapas de segundo orden proporcionan características de respuesta sinusoidal a respuestas escalonadas que proporcionarán una respuesta pico a una frecuencia resonante. En el circuito inicial de cóclea de silicio, hubo 100 circuitos de segundo orden con 10 tomas de voltaje espaciadas uniformemente a lo largo del diseño.

    Cada circuito de segundo orden está compuesto por tres amplificadores operacionales y dos condensadores configurados como circuitos integradores de seguidores en cascada con un amplificador de retroalimentación que proporciona respuestas oscilatorias. La transconductancia del amplificador de retroalimentación es controlada por una tensión de polarización externa. Para una transconductancia de baja retroalimentación, el circuito se comporta como un seguidor-integrador de dos etapas, que sigue el voltaje de entrada. A medida que aumenta la transconductancia de retroalimentación, la retroalimentación positiva hace que el segundo integrador-seguidor salte ligeramente hacia adelante y oscile a un valor de estado estacionario. Si la transconductancia se establece demasiado alta, el circuito oscila fuera de control (se vuelve inestable).

    Una vez calibrado (sintonizado) apropiadamente, la respuesta pico de cada circuito de segundo orden es una función de la frecuencia de entrada. Dado que cada etapa agrega inherentemente un efecto de suavizado, las frecuencias individuales de las señales de voltaje de entrada tendrán una respuesta pico en algún lugar a lo largo del circuito de 100 etapas. Al igual que en la cóclea natural, la distribución espacial de las tomas de voltaje proporciona una muestra de la representación de Fourier de la señal de voltaje de entrada. Sin embargo, en la cóclea natural el diseño mecánico de la membrana basilar proporciona deflexiones físicas de pico (correspondientes a componentes de frecuencia de señal presentes en la señal de entrada) mientras que este diseño modela la estructura coclear mecánica con un banco de filtros electrónicos de segundo orden.

    Modelo de línea del circuito Mead/Lyon Silicon Cochlea
    Figura 4.3-1. Silicon Cochlea es línea de retardo de 2 circuitos de orden nd [Lyon89]

    4.2.4 Cóclea electrónica basada en Memes [Andr01]

    Un ejemplo de un enfoque de sistema microelectromecánico (MEMS) para una cóclea electrónica de silicio se describe en [Andr01]. MEMS permite la distorsión mecánica debido a la energía sonora incidente para cambiar la distancia entre dos placas de polisilicio que se implementan como condensador. Este concepto de diseño incluye un sensor de gradiente de presión acústico basado en MEMS y un banco de filtros que descompone la energía acústica incidente en sus componentes de ondícula. El transductor de presión es un diafragma de polisilicio MEMS convencional suspendido en aire sobre placa posterior de polisilicio. Inspirados en los órganos sensoriales acústicos acoplados mecánicamente de la mosca parasitoide, los transductores están conectados por un haz de polisilicio de primera capa, lo que permite medir el gradiente de presión. A medida que la energía acústica golpea la placa externa, la placa se distorsiona hacia la placa posterior, lo que reduce la distancia de aire que separa las dos placas. Esto provoca una disminución de la capacitancia en respuesta a la presión acústica. La implementación de cóclea de silicio MEMS está compuesta por bancos de filtros MEMS que permiten una descomposición de ondículas en tiempo real de la energía acústica recibida

    Las ventajas del enfoque basado en MEMS sobre el enfoque VLSI analógico es un menor requerimiento de potencia ya que la energía física de las ondas sonoras está haciendo parte del trabajo de los amplificadores de transconductancia VLSI. Además, dado que el enfoque basado en MEMS se asemeja más a los sistemas naturales, existe una correlación más directa con la respuesta del sistema a la energía acústica de entrada.

    Otra aplicación de la tecnología MEMS para robots biomiméticos incluye microinterruptores en voladizo para modelar el comportamiento de la antena y proporcionar sensores de flujo de agua. Estos sensores basados en MEMS están siendo utilizados para modelar comportamientos de langosta y escorpión en vehículos robóticos submarinos [McGr02].

    4.2.5 Diseño “See-Hear” para ciegos mediante el reentrenamiento del sistema auditivo [Mead89]

    El concepto “See-Hear” pretende ayudar a una persona ciega a “ver” al escuchar diferentes sonidos basados en objetos visibles en un sistema de cámara montado en la cabeza [Mead89, Ch 13]. La implementación exitosa requiere transformar las señales visuales en señales acústicas para que los usuarios puedan crear un modelo del mundo visual con su sistema auditivo.

    Tanto los sistemas visuales como auditivos tienen campos receptivos que representan distribuciones de datos dentro del entorno local. El sistema de visión mapea las emisiones de luz y reflejos de objetos 3D en el mosaico de fotorreceptores 2D en la retina, cuyo mapeo conforme en el cerebro se llama el mapa retinotópico. De manera similar, el sistema auditivo toma componentes de frecuencia de la energía sonora local y mapea un espectro en la membrana basilar en la cóclea y posteriormente (vía nervio coclear) a un mapa conformado en el cerebro llamado mapa tonotópico.

    Tanto los sistemas visuales como auditivos se ocupan de detectar eventos transitorios. El sistema de visión detecta el movimiento tomando derivados del espacio-tiempo de la distribución de la intensidad de la luz. Los transitorios ayudan a localizar eventos tanto en el espacio como en el tiempo, y el cerebro construye un modelo 3D del mundo usando paralaje de movimiento, que es el movimiento aparente del objeto contra el fondo causado por el movimiento del observador. Si un observador se enfoca en un punto en el infinito y se mueve lentamente, entonces los objetos cercanos parecen moverse rápidamente contra el fondo infinito, mientras que los objetos más alejados parecen moverse más lentamente. Los sonidos transitorios también son fácilmente detectados y localizados en el sistema auditivo.

    Los sistemas de visión y auditivo difieren en la forma en que se procesa la información periférica:

    “En visión, la ubicación de un píxel en una matriz 2D de neuronas en la retina corresponde a la ubicación de los objetos en una proyección 2D de la escena visual. La información de ubicación se conserva a través de canales paralelos mediante mapeo retinotópico. El sistema auditivo, en contraste, tiene solo dos canales de entrada; la información de ubicación se codifica en los patrones temporales de señales en las dos cócleas. Estos patrones temporales proporcionan las señales que utilizan los centros auditivos superiores para construir una representación 2D del entorno acústico, similar a la visual, en la que la posición de una neurona corresponde a la ubicación del estímulo que detecta”. [Mead89]

    Los conceptos clave de visión biológica explotados en el chip See-Hear incluyen [Mead 89]:

    - Logaritmo de intensidad de luz recolectada en el fotorreceptor; mediante una función logarítmica se expande el rango dinámico disponible en comparación con una función lineal.

    - La orientación espacial de las fuentes de luz (que incluye la luz reflejada) se conserva del mosaico fotorreceptor a través del mapa retinotópico

    - Las señales de profundidad requeridas para la reconstrucción mental del espacio 3D son proporcionadas por señales derivadas del tiempo del perfil de intensidad de la luz

    Las claves auditivas para la localización del sonido incluyen:

    - Tiempo de retardo (350 —650 microsegundos) entre las orejas, proporcionando una señal de colocación horizontal

    - Atenuación acústica de alta frecuencia, proporcionando una señal de colocación horizontal adicional

    - Vías directas e indirectas en el oído externo que provocan un patrón de interferencia destructivo que es función de la elevación, proporcionando así una señal de colocación vertical

    Al igual que en un sistema de visión natural, el sistema See-Hear acepta energía fotónica a través de una lente y enfoca la energía en una matriz 2D de píxeles. (Un píxel es simplemente un elemento de imagen). Cada valor de píxel representa la luz proveniente de una dirección específica en el mundo 3D. El chip See-Hear incluye procesamiento local en cada ubicación de píxel.

    Cada procesador de píxeles responde a la derivada de tiempo del logaritmo de la intensidad de la luz incidente. Los fotones de luz entrantes entran en la región de agotamiento de un fototransistor de unión bipolar creando pares electrón-agujero en cantidades proporcionales a la intensidad de la luz. Dos transistores MOS conectados a diodos conectados al emisor provocan una caída de voltaje en respuesta al logaritmo de la intensidad de la luz. Un amplificador de transconductancia MOS con retroalimentación no lineal proporciona una señal de salida derivada del tiempo del procesador de píxeles. Cada procesador de píxeles está acoplado por condensador a píxeles adyacentes para que cada procesador de píxeles actúe como una línea de retardo.

    Las señales derivadas del tiempo se propagan en dos direcciones en el circuito electrónico de la cóclea, lo que da como resultado una imitación de los retardos de tiempo entre los oídos izquierdo y derecho. Como se ve en la Figura 4.2.5-1 un evento transitorio en el campo visual izquierdo dará como resultado un sonido en el lado izquierdo antes que el sonido en el lado derecho, que imita el comportamiento de eventos sonoros en sistemas auditivos. El circuito de retardo de tiempo también filtra frecuencias más altas, de modo que los retardos más largos dan como resultado una mayor atenuación de frecuencias más altas. Por lo tanto, esta característica modela la sombra de cabeza binaural, que es la atenuación de altas frecuencias a medida que el sonido viaja alrededor de la cabeza. El efecto combinado de las señales retardadas y la atenuación de alta frecuencia de los canales de retardo sirve para combinar ambas señales de localización horizontal natural en un solo circuito.

    Dado que cada circuito procesador de píxeles en la cóclea electrónica contiene su propio circuito fotorreceptor, se procesan múltiples fuentes de sonido como superposición de las fuentes individuales. Para modelar las entradas de elevación a partir de las diferencias de trayectoria pinna-tragus, el chip ver-escuchar contiene un circuito de retardo adicional en cada extremo. La imagen 2D se enfoca en una matriz 2D de procesadores de píxeles, y la salida de cada fila horizontal se agrega a una versión retardada de sí misma para modelar la mezcla de las rutas relevantes para la elevación de los objetos en la imagen. De esta manera, las salidas de cada fila se suman todas juntas para crear sólo dos señales de sonido separadas, una para cada oído. Si dos de los mismos objetos estuvieran a diferentes alturas dentro de la imagen, los diferentes retrasos en la trayectoria de pinna-tragus al final de sus respectivas filas proporcionarán al usuario una cola audible en cuanto a dónde (en elevación) se encuentra el objeto.

    En última instancia, el usuario puede aprender a escuchar un modelo 3D del entorno externo basado en lo que se captura visualmente con el sistema de cámara.

    Modelo de mimetismo de hora de llegada izquierda y derecha en cóclea electrónica. Los bloques representan un retardo de tiempo uniforme y cinco filas representan el tiempo progresivo

    Esta figura ilustra la parte de la electrónica que imita los diferentes tiempos de llegada de un frente de onda de sonido debido a las diferentes longitudes de trayectoria a cada oído. Cada bloque representa un circuito de retardo de tiempo uniforme y un circuito fotodetector. Cada fila de la figura representa la misma fila en una unidad de tiempo posterior.

    4.2.6 Un sistema de sonar biomimético [Reese94]

    Se diseñó un “Sistema de sonar activo biológico (BASS)” basado en el procesamiento de eco de murciélagos y delfines para detectar y clasificar minas en aguas poco profundas [Reese94]. Se utilizaron filtros front-end y funciones no lineales emulando modelos neuronales auditivos para obtener alta resolución con sonares de baja frecuencia (que es otro ejemplo de codificación gruesa en sistemas naturales). El producto previsto de esta investigación es la implementación de un sistema en un vehículo submarino autónomo.

    La Figura 4.2.6-1 muestra el diagrama de bloques de las etapas de procesamiento de BASS. Los filtros pasabanda (BPF) tienen características nítidas de roll-off a altas frecuencias y son de banda ancha, superponiendo significativamente a otros canales (codificación gruesa). Esto está inspirado en el procesamiento auditivo periférico natural y proporciona una buena definición de tiempo/frecuencia de la señal, así como aumenta la relación señal/ruido en banda (SNR).

    Modelo de un sistema sonar con cajas etiquetadas
    Figura 4.2.6-1. Sistema de sonar de inspiración biológica.

    Al igual que en el sistema de visión, el control automático de ganancia (AGC) permite cubrir un rango dinámico mucho más amplio, el cual se basa en el comportamiento integrado a umbral de las señales auditivas. Esto agudiza el tiempo de inicio de la señal, lo que se traduce en la resolución del rango de El rectificador de media onda y la función sigmoide es inherente al procesamiento auditivo de los mamíferos y sirve para agudizar el tiempo de inicio y la resolución del rango.

    La suma de picos y el retardo proporcionan una suma coherente en banda y una alineación de señal entre bandas. Esto imita los bucles biológicos naturales bloqueados en fase y proporciona compresión de pulso. Los beneficios previstos de un diseño de baja frecuencia de banda ancha de este tipo son los rangos de detección más largos y un mejor reconocimiento de objetivos de minas parcialmente enterradas.


    This page titled 4.2: Aplicaciones inspiradas en los sistemas mecano-sensoriales naturales is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Geoffrey Brooks (Florida State Open Publishing) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.