Transkript: Audiologie und Hörgeräte (56)

Transcript: omega tau 56 – Audiologie und Hörgeräte

http://omegataupodcast.net/56-audiologie-und-horgerate/

In dieser Episode geht es ums Hören – genauer gesagt, um die Funktionsweise des menschlichen Ohrs sowie um Hörgeräte. Dazu unterhalte ich mich mit André Steinbuß, den Leiter der Forschung und Entwicklung Audiologie der Siemens Audiologische Technik GmbH.

 

[00:01:28] Mein Name ist André Steinbuß, ich bin mittlerweile 34 Jahre alt, bin bei der Siemens Audiologische Technik GmbH angestellt und bin im Moment verantwortlich für die Abteilung Forschung und Entwicklung Audiologie. Das ist eine Fachabteilung im Bereich Forschung und Entwicklung und die besteht aus 18 Leuten. Ich bin in die Abteilung vor sieben Jahren reingewachsen, damals als Diplomand, habe sieben Jahre in der Abteilung dann gearbeitet und bin seit Herbst letzten Jahres Leiter dieser Abteilung und muss auf die 18 Leute so ein bisschen aufpassen.
[00:02:02] Okay, jetzt haben wir da zwei Begriffe oder zwei Konzepte bei der Gelegenheit schon erwähnt. Das eine ist Siemens Audiologische Technik, willst du da vielleicht kurz zwei Worte zur Firma sagen? Was treibt ihr hier so?
[00:02:13] Willst du wissen, was wir hier treiben oder wie wir zu Siemens gehören?
[00:02:17] Beides.
[00:02:18] Beides? Ich erzähle dir erst, was wir bei Siemens machen und dann sage ich dir, was wir da drin treiben. Siemens ist in unterschiedlichen Bereichen aktiv und ein Bereich ist der sogenannte Bereich Healthcare und die Siemens Audiologische Technik ist ein Geschäftsgebiet in diesem Bereich Healthcare. In dem Bereich werden medizintechnische Produkte hergestellt und dieses Geschäftsgebiet, die Siemens Audiologische Technik, beschäftigt sich eben mit der Herstellung von Hörgeräten und messtechnischem Zubehör dazu oder Software, die man braucht, um diese Hörgeräte eben einzustellen.
[00:02:54] Okay. Das ist dann auch offensichtlich das Thema für den heutigen Podcast. Wir wollen uns ein bisschen über Audiologie unterhalten. Da gehört dazu, wie das Ohr funktioniert, welche Art von Schäden – und damit Hörschwächen – es da geben kann und dann als Folge eben auch, was man dagegen tun kann und was heute so an moderner cooler Technik in so einem Hörgerät drin steckt. Und das ist wie immer deutlich mehr, als man auf den ersten Blick denken würde. Fangen wir doch damit mal kurz an, gibt es für Audiologie oder so eine Definition irgendwie, dass man das irgendwie fassen kann?
[00:03:27] Ja, gibt es. Ich habe die Erfahrung gemacht, wenn die Leute fragen: „Sag mal André, was machst du eigentlich beruflich?“, dann pflege ich zu sagen: „Ich bin Audiologe.“ Und die erste Frage ist dann immer: „Was ist das denn?“. Infolge dessen habe ich irgendwann mal nachgeschaut, wie ist Audiologe oder Audiologie eigentlich definiert? Und das trage ich relativ häufig mit mir herum und heute habe ich das auch mitgebracht. Und ich habe mal in Wikipedia nachgeschaut, wie das in Wikipedia beschrieben ist, so dass es auch jeder nachlesen kann.
[00:03:53] Das werden wir auch verlinken.
[00:03:54] Super. Die Audiologie ist eine eigenständige Wissenschaft. Sie beschäftigt sich mit allen Aspekten der auditiven Wahrnehmung, also des Hörens. Und an dem Prozess des Hörens selbst sind eine Vielzahl unterschiedlicher physikalischer und biologischer Effekte beteiligt. Und vor dem Hintergrund ist das also ein Teil der Naturwissenschaften. Vielleicht noch ein Wort zu den Zielen der Audiologie. Ziele der Audiologie sind die Aufklärung der Vorgänge beim Hören bis ins Detail, also angefangen von den physikalischen Dingen, die im Außenohr passieren bis hin zu irgendwelchen zentralen Prozessen auf der Hirnrinde. Und womit wir uns hier eben im Wesentlichen beschäftigen ist die Erforschung der Krankheiten von Hörorganen und eben die Entwicklung von entsprechenden Behandlungsmöglichkeiten, zum Beispiel Hörgeräten.
[00:04:38] Also, dass ihr hier Hörgeräte entwickelt, das ist mir klar. Inwieweit ihr aber an der medizinischen Ursachenforschung beteiligt seid oder dass ihr da beteiligt seid, war mir nicht klar. Macht ihr hier auch so mit Unis gemeinsam mit Medizinern so bei der Erforschung der möglichen Schäden des Ohrs mit? Oder seid ihr doch mehr so dann auf der Kompensierungsseite, wenn sich das dann herausgestellt hat, was das Problem ist?
[00:05:02] Das, was wir hier intern machen, ist in der Tat mehr kompensieren. Wir haben aber vielfach Kontakte zu Hochschulen, nicht nur in Deutschland, sondern wirklich weltweit, wo wir verfolgen: In welchen Bereichen wird aktuell geforscht, wo gibt es neue Erkenntnisse? Weil sich dadurch natürlich auch wieder Möglichkeiten für technische Lösungen ableiten. Daran sind wir natürlich interessiert.
[00:05:20] Okay. Eine Frage noch: Was hast du dann studiert? Medizin? Physik? Audiologie? Ist das ein Studiengang?
[00:05:26] Ja, das ist eine witzige Frage. Ich bin von der Schule gekommen, hab mir gedacht: Ich hab bloß keine Lust zu studieren und hab eine Ausbildung gemacht als Hörgeräteakustiker. Das ist ein handwerklicher Beruf hier in Deutschland, also ähnlich wie Optiker wird man Hörgeräteakustiker-Geselle. Und die Tätigkeit ist eigentlich auch ganz ähnlich. Man passt eben keine Brillen an und wählt Gläser aus, sondern man wählt Hörgeräte aus und passt Hörgeräte an. Und nachdem ich drei Jahre im Laden gestanden habe, hab ich mir überlegt: Eigentlich müsste es noch ein bisschen mehr geben, was ich ganz gern machen wollen würde und habe dann Medizintechnik studiert und bin darüber dann quasi nach diesem kleinen Exkurs wieder zurück gekommen zu den Hörgeräten. Es gibt mittlerweile zwei, drei Studiengänge in Deutschland, wo man Audiologie studieren kann. Das sind Fachhochschulstudiengänge, die sind häufig angegliedert an Medizintechnik, aber eben nicht alle der Kollegen, die in meiner Abteilung arbeiten, kommen aus diesen Studiengängen, sondern viele sind wirklich Leute, die im Bereich Physik gearbeitet haben, dann in den Bereich der medizinischen Physik gegangen sind und zu uns gekommen sind. Ein anderer Teil der Gruppe hat nachrichtentechnischen Hintergrund von der Signalverarbeitung her. Teilweise sind Biologen mit dabei. Das sind so die großen drei Stützen, also Medizintechnik, dann gibt es eben Quereinsteiger aus anderen naturwissenschaftlichen Bereichen.
[00:06:37] Okay, dann lass uns doch mal ein bisschen darüber reden, wie das Ohr und das Hören funktioniert. Ich denke, was die meisten wissen, ist, dass es da drin das Trommelfell hat, das letztendlich die Schallschwingungen der Luft aufnimmt und irgendwie umsetzt. Da gibt es doch bestimmt deutlich mehr sinnvolle Dinge, die man darüber wissen kann.
[00:06:57] Ja, man kann es sich so in kleinen Scheiben vorstellen. Wenn wir uns quasi von außen nach innen vortasten, dann hast du ganz außen deine beiden Ohrwascheln und die haben schon die erste wichtige Funktion. Die sorgen dafür, dass du vorne und hinten nicht vertauschst. Die sind geformt wie so ein kleiner Trichter. Alles, was von vorne kommt, bekommst du ein bisschen früher mit. Sachen, die von hinten kommen, werden so ein bisschen abgeschattet. Dann gibt es, wenn du dich weiter vortastest in den Gehörgang hinein bis zum Trommelfell, da gibt es in der Kombination aus Gehörgang und Außenohr so eine besonders charakteristische Resonanz im Bereich von 2-3 kHz, wo einfach nur durch die Geometrie des Ohres noch ein bisschen Verstärkung erzeugt wird.
[00:07:36] Das ist quasi eine natürliche Filterung auf bestimmte interessante Frequenzen?
[00:07:39] Genau, richtig. Die werden nochmal besonders hervorgehoben, einfach dadurch, dass dieses Ohr so geformt ist, wie es eben geformt ist.
[00:07:45] Da resonanzt es einfach.
[00:07:46] Genau, da resonanzt es. Diese Resonanz hat so ungefähr 17db Verstärkung, also kommt schon so ein bisschen was mit, das ist nicht gigantisch, dass du dadurch auf einmal hörst wie ein Luchs, aber es macht so ein bisschen was. Das ist so der Bereich des Außenohrs. Dann gibt es einen kleinen Teil des Mittelohrs, das ist so das, was sich hinter dem Trommelfell verbirgt.
[00:08:03] Das, was sich immer entzündet?
[00:08:04] Genau, bei Kindern entzündet sich das ganz gern. Das ist so eine kleine Höhle, da drin hängen so ein paar Gehörknöchelchen, das sind drei kleine Knochen, witzigerweise übrigens die kleinsten Knochen, die ein Mensch im Körper hat. Die sind im Mittelohr und die machen eine so genannte Impedanzanpassung. Von außen hast du immer Luftschall, der wird eben durch die Luft transportiert und das Innenohr nachher ist so eine kleine Schnecke, die ist mit einer Flüssigkeit gefüllt und im Wasser muss Schall oder eine Welle einen viel größeren Widerstand überwinden als in Luft. Und um das abzufangen oder auszugleichen, gibt es dieses Mittelohr, was einfach so über physikalische Hebelgesetze den auftreffenden Schall verstärkt und damit eine Impedanzanpassung macht, damit man später eben den Schall in das flüssigkeitsgefüllte Innenohr übertragen kann.
[00:08:45] Ah, okay, also im Innenohr haben wir Flüssigkeit, im Außenohr jenseits des Trommelfells haben wir Luft und um jetzt sozusagen die nötige Auflösung, wenn man so will, also quasi die nötige Amplitude im Wasser – oder in der Flüssigkeit, das wird ja kein Wasser sein – im Wasser auch hinzukriegen, funktionieren diese kleinen Knöchelchen so als hebelgesetzmäßige mechanische Verstärkung?
[00:09:06] Genau.
[00:09:07] Das heißt aber, da wo die Flüssigkeit ankommt, da ist schon auch nochmal so eine Art Fell oder irgend eine Membran.
[00:09:12] Genau, da ist so eine kleine Membran, das heißt „ovales Fenster“, da geht es quasi dann wirklich rein in diese Schnecke, aber es geht…
[00:09:17] Und die Knöchelchen sind quasi die Vermittler zwischen den beiden Membranen?
[00:09:19] Genau. Und einer von diesen Gehörknöchelchen, der erste, der hinten an dem Trommelfell ansetzt, das ist der Hammer. Also du hast wirklich genau so ein Hebelgesetz, wie bei einem echten Hammer kannst du dir das vorstellen. Du lenkst unten aus und oben hast du einen großen Effekt an der Spitze dieses Hammers.
[00:09:32] Okay. Das heißt, dann sind wir jetzt in dem flüssigkeitsgefüllten Innenohr. Da passiert was? Die Flüssigkeit bewegt sich dann, quasi die Wellen, die wir vorher in der Luft haben, die haben wir jetzt aufgrund der Hebel entsprechend verstärkt in der Flüssigkeit. Und dann?
[00:09:50] Das Innenohr sieht aus wie eine Schnecke und der Schall kommt unten am Fuß der Schnecke rein.
[00:09:54] Am großen Teil quasi, am breiten.
[00:09:56] Genau, am großen Teil. Wenn du so ein Schneckenhaus findest irgendwo, kommt der unten am großen Teil rein und wandert hoch bis in die Spitze. Und dieser Bogengang in der Schnecke, der ist geteilt in unterschiedliche Bereiche und diese Welle wandert in einem Teil nach oben, läuft oben durch die Spitze und läuft auf dem unteren Bogengang wieder zurück und kommt dann unten raus.
[00:10:14] Also das sind quasi, wenn man es sich so vorstellt, zwei so parallel schneckenförmig verlaufende Rohre, wenn man so will? Oder Röhren?
[00:10:21] Ja, also für den Fall, dass du Experten in deinem Podcast hast, das sind mehr als zwei. Aber der Einfachheit halber sagen wir mal: Es sind zwei Bereiche und im Wesentlichen brauchst du was, wenn du auf der einen Seite rein drückst, muss auf der anderen Seite irgendwo der Druck wieder raus kommen. Ansonsten platzt das auf.
[00:10:33] Ja, okay.
[00:10:35] Genau, da gibt es diese Schnecke und in dieser Schnecke passiert etwas, was wir als Frequenzortstransformation bezeichnen. Durch die besonderen geometrischen Abmessungen – dieser Schneckengang wird nach und nach immer dünner – lenkt sich in dieser Flüssigkeit eine sogenannte Wanderwelle aus, die je nach Frequenz an einer unterschiedlichen Stelle ein charakteristisches Maximum erreicht.
[00:10:59] Ah, okay und da sind dann wahrscheinlich wieder irgendwelche Sinneszellen, Nervenzellen, die das mitkriegen?
[00:11:04] Genau, richtig. Ja, was man sagen kann ist: Unten am Eingang der Schnecke sind die Sinneszellen für die hohen Frequenzen angesiedelt, das heißt eine hohe Frequenz, die eben durch das Außenohr, durch das Mittelohr gekommen ist und in die Schnecke rein kommt, für diesen Ton wird die Wanderwelle ihr Maximum unten eher am Eingangsbereich der Schnecke haben und wird da eine hohe Auslenkung erzeugen, so dass die Haarsinneszellen, die Rezeptoren, das mitbekommen und sagen: Das ist ein hoher Ton. Wohingegen ein tiefer Ton eine recht geringe Amplitude im unteren Bereich der Schnecke hat und erst im oberen Bereich sein Maximum erreicht und da dann eben die entsprechende Haarsinneszelle auslöst.
[00:11:35] Wie funktioniert diese Haarsinneszelle? Die muss ja nicht nur die Tatsache feststellen, dass da eine bestimmte Frequenz angekommen ist, sondern sie möchte ja idealerweise auch die Amplitude dieser Frequenz feststellen, so dass wir nachher irgendwo sozusagen eine Frequenz-Amplituden-Verteilung irgendwie bekommen. Weil wir hören ja nicht nur, welche Frequenz kommt, sondern auch, wie laut sie ist.
[00:11:51] Ja, genau. Die Frequenz kommt einfach aus der Information: Die Haarsinneszelle weiß, dass sie an einer bestimmten Stelle ist und sagt: „Ich bin die für 4 kHz.“
[00:11:57] Aber was heißt „Haarsinneszelle“? Wie geht das? Ist das eine chemische Reaktion? Nein, natürlich nicht.
[00:12:01] Nein, nicht.
[00:12:02] Ist es mechanisch, oder…?
[00:12:03] Ja, mechanisch zum Teil.
[00:12:05] Wir haben kürzlich eine Episode über Seehunde gemacht. Und da kam raus, dass die Barthaare von diesen Seehunden so dermaßen empfindlich sind, was die Verwirbelung im Wasser angeht, dass die die Spur an Verwirbelung, die ein Fisch hinterlässt im Wasser, eine Viertelstunde später noch nachverfolgen können. Das heißt also, da muss irgendwo ein Mechanismus sein, der abhängig von der Auslenkung der Haare irgendwie ein Nervensignal von sich gibt. Ist es so was in dem Sinn?
[00:12:31] Ja, das kannst du durchaus vergleichen. Also diese Haarsinneszellen sitzen eben an ihrer Stelle und haben oben so ein kleines Härchen. Und immer dann, wenn eine Welle vorbei kommt, dann werden die sogenannten inneren Haarsinneszellen abgeschält, also bis zu einem gewissen Maß quasi abgeknickt, ähnlich wie diese Barthaare und darüber stellt die Haarsinneszelle fest: Hoppala, da ist irgendwas, was an mir wackelt und die gibt dann weiter: Etwas hat an mir gewackelt und das war ungefähr so stark und durch die Position der Haarsinneszelle auf dieser Membran weiß man dann: Das war ein 4 kHz Ton, der hat möglicherweise nur leicht gewackelt, deshalb muss er leise gewesen sein.
[00:13:03] Und auf dem Rückweg, nachdem das aus der anderen Röhre aus der Schnecke wieder raus springt, gibt es dann auch nochmal solche Zellen? Oder geht das nur auf dem Rein-Weg?
[00:13:09] Das ist nur auf dem Rein-Weg. Der Rückweg ist eigentlich nur als Druckausgleich. Auf dem Hinweg gibt es, was ich dir bis jetzt verschwiegen habe, es gibt zwei Arten von Haarsinneszellen. Die inneren Haarsinneszellen, das sind die, die quasi diese Abscherung mitbekommen und auf Basis dessen sagen können: Das war ein Ton und der war entweder leise oder laut, also ich bin quasi gerade gereizt worden. Es gibt dazu noch äußere Haarsinneszellen.
[00:13:31] Außen, wo?
[00:13:33] Wenn du dir die Schnecke wieder vorstellst, das Schneckenhaus, was du gefunden hast, dann sitzen die inneren, die Rezeptoren, sitzen einfach in der Mitte der Schnecke und…
[00:13:38] Da, wo die Flüssigkeit…
[00:13:40] Da, wo die Flüssigkeit wandert. Und die äußeren sind einfach außen am Schneckenrand angeordnet. Also das ist einfach nur zum Unterscheiden, damit man weiß: Innere sitzen eher quasi an der Achse und die äußeren sitzen ein bisschen weiter außen. Diese äußeren Haarsinneszellen sind keine Rezeptoren, sondern die haben eine aktive Aufgabe. Und die verhalten sich ganz witzig, die sorgen dafür, dass wir eine unglaubliche Dynamik mit unserem Ohr abdecken können.
[00:14:01] Dynamik, nur für die Nicht-Audio-Fanatiker hier, ist die Auflösung bezüglich Minimal- und Maximallautstärke. Kann man so sagen?
[00:14:09] Genau.
[00:14:09] Die sozusagen Delta-A-Dezibel?
[00:14:11] Die Delta-A-Dezibel, genau. Oder den Bereich, den wir so aufspannen können.
[00:14:15] An Lautstärke?
[00:14:16] Genau. Immer dann, wenn ein leiser Ton kommt, dann werden diese äußeren Haarsinneszellen kurz gereizt und es gibt dann aber durchaus einen aktiven Prozess, der die dazu zwingt, diese Wanderwelle nochmal zu verstärken. Das führt dazu, dass diese innere Haarsinneszelle schon viel früher auf Reize reagieren kann, als sie es normalerweise tun würde, wenn die äußeren Haarsinneszellen nicht da sind.
[00:14:36] Ein eingebauter Verstärker?
[00:14:38] Das ist nicht nur ein eingebauter Verstärker, sondern das ist auch gleichzeitig noch eine eingebaute Ausgangspegel-…naja Begrenzung ist zu hart gesagt, aber eine gewisse Kompression. Immer dann, wenn ein besonders lauter Pegel kommt – wenn du jetzt raus gehst an die Straße, es fährt ein großer Lastwagen an dir vorbei – dann versteifen sich diese äußeren Haarsinneszellen und bremsen dadurch die Dynamik und haben dann eine gewisse Schutzfunktion für diese inneren Haarsinneszellen.
[00:14:58] Also mit anderen Worten: Sie verstärken die leisten Töne stärker. Und du hattest gerade den Begriff Kompression verwendet. Das ist ein Begriff, den ich auch gut kenne als jemand, der Podcasts aufnimmt und hinterher guckt, wie die sich anhören. Kompression heißt, dass man die Dynamic Range, also die minimale und maximale Lautstärke, dass man die angleicht, also die lauten Dinge leiser machen, die leisen Dinge lauter machen, so dass das Delta in Summe geringer ist und sich das alles in allem dann gleichmäßig laut anhört.
[00:15:23] Genau.
[00:15:24] Okay. Ich wollte nur so die Begriffe ein bisschen erklären, so weit ich das kann.
[00:15:26] Ja, ist ja super. Wichtig als quasi Take-Home-Message: Innenohr ist nicht nur wie bei einer Brille oder beim Auge, wo du am Ende so einen kleinen Rezeptor hast, der sagt: Da ist Licht oder da ist die Farbe rot, sondern es gibt eben durchaus aktive Prozesse und es gibt eben vereinfacht noch diesen Rezeptor, der feststellt: Da ist ein Ton und ich kann den auf eine bestimmte Frequenz mappen.
[00:15:47] Ja, okay. Ist doch interessant, wie wenig man darüber weiß. Also, ich meine, über das Auge, das weiß irgendwie jeder so ungefähr, aber so über das Ohr wusste ich auch nichts.
[00:15:57] Da bist du noch lange nicht hinten angekommen, denn dann geht es ja noch weiter.
[00:16:00] Ach so?
[00:16:01] Ja, es heißt ja, viel von dem, was wir machen, wird als Psychoakustik bezeichnet. Bis jetzt im Moment haben wir ja eigentlich nur Physik gemacht. Danach geht es noch relativ vielfältig weiter. Wir bezeichnen das – oder es gibt so ein paar Prozesse, die werden auf dem Hörnerv…die laufen da ab.
[00:16:17] Hörnerv ist Verbindung zwischen Ohr und Hirn?
[00:16:18] Genau. Zwischen quasi jeweiligem Ohr und Hirn. Wenn du dir zum Beispiel vorstellst, du gehst in ein Kaufhaus, dann stellst du meistens fest, wenn du das erste Mal rein kommst, hörst du so ein unglaubliches Stimmengewirr, so ein Gebrabbel. Was ist denn hier los? Ganz viele Stimmen sprechen miteinander und du bist möglicherweise mit deiner Partnerin oder deinem Partner unterwegs. Und nach einer gewissen Zeit nimmst du aber diese äußeren Stimmen, diese anderen Stimmen, gar nicht mehr wahr, sondern hörst weiterhin nur noch deinen Partner, mit dem du in dieses Geschäft gekommen bist. Und du musst dich wirklich bewusst daran erinnern: Hey hoppla, da war doch was. Das war doch eigentlich recht laut hier. In dem Moment, wo du wieder hin hörst, stellst du fest: Ach ja, stimmt, die ganze Geräuschkulisse ist noch da. Das ist so eine gewisse Störgeräuschbefreiung oder ein Trennen von Nutz- und Störsignalen, was unterbewusst auf diesem Hörnerv schon passiert.
[00:17:00] Dein Punkt ist, dass das nicht mechanisch im Ohr gefiltert wird, sondern das Hirn halt nur die Dinge wahrnimmt, die es semantisch für wichtig hält? Also, wie auch immer es das macht.
[00:17:11] Genau und du machst es nicht mal bewusst. Also bewusst kannst du diesen Effekt wieder abschalten, aber unterbewusst…du gehst ja in dieses Kaufhaus rein, ohne dass du bewusst darüber nachdenkst: „Nebengeräusche bitte weg“, sondern das passiert wie von selbst.
[00:17:22] Jetzt, wo wir gerade darüber reden: Ein Hörer – dummerweise ein englischsprachiger, für den muss ich das dann irgendwann übersetzen – hat eine extrem interessante Frage gestellt. Und zwar ist das logischerweise ein Podcast-Hörer und der sagt: „Wenn ich meinen iPod aufsetze und in einer leisen Umgebung höre, dann kann ich ihn logischerweise relativ leise stellen. Wenn ich dann den iPod lauter stelle, gibt es eine Schwelle, ab der tut mir das weh, ist es mir zu laut.“ Und nehmen wir mal an, das wäre bei 50% der gesamt möglichen Lautstärke des iPods. So, jetzt ist er in einer lauten Umgebung, sagen wir mal in einer U-Bahn. Da kann er den iPod nicht nur bis 50%, sondern bis fast Vollgas aufdrehen, damit er trotz dem Lärm die Stimme noch hört und sagt: Da tut es ihm nicht weh. Ist das eine Einbildung oder ist das ein tatsächlicher Effekt, den das Hirn, das Ohr, der Hörnerv hinkriegt? Dass er quasi sagt: Die Umgebung ist laut, deshalb stell ich meinen gesamten Filterpegel höher oder niedriger?
[00:18:18] Das ist eine wirklich gute Frage. Sicher kann ich dir sagen, es ist kein physikalischer Effekt, der auf dieser Strecke passiert Außenohr-Mittelohr-Innenohr. Das muss irgendwas Zentrales durchaus sein. Es gibt so ein paar Hinweise, die so in die Richtung gehen. Wenn wir zum Beispiel Tests machen mit Leuten um unsere Hörgeräte auszuprobieren, dann kann man das im Labor machen. Wenn wir denen im Labor irgendwelche Schalle vorspielen, dann sagen die ziemlich früh schon: „Mein Gott, ist das laut hier, mach das bloß leiser.“ Und wir stellen dann eigentlich fest: Naja, so laut kann es doch eigentlich gar nicht sein. Wenn wir mit denen raus gehen auf die Straße, wo es möglicherweise noch lauter ist – also dein Kollege geht eben in die U-Bahn – dann sagen die: „Na, es passt eigentlich so.“ Also es scheint so ein gewisses Abhängigkeitsverhältnis zu geben zwischen dem, was du hörst und was du siehst und auf Basis dieser anderen Reize, die dich umgeben – möglicherweise stellst du fest, dass du draußen bist, du siehst, da kommt eine U-Bahn und du weißt, dass es laut ist – vielleicht bis du dann einfach schon ganz anders eingestellt und bist ein bisschen toleranter gegenüber lauten Pegeln, als wenn du allein in deinem Wohnzimmer sitzt und deinen iPod aufdrehst.
[00:19:15] Um jetzt diese Sehen-Hypothese zu entkräften – wir brauchen da nicht ewig rumdiskutieren – ich kenne einen ähnlichen Effekt. Und zwar, wenn ich abends im Bett liege und iPod höre, kann ich den logischerweise sehr sehr leise stellen und wenn ich den iPod ganz leise stelle, hör ich die Störgeräusche, die ja auch sehr leise – Nachbar, der oben rum läuft, der Zug draußen, der ganz entfernt vorbei fährt – höre ich die lauter und nehme die störender wahr, als wenn ich den iPod abschalte und quasi gar nichts mehr höre. So nach dem Motto: Das Ohr ist getunt darauf, dass es den ganz ganz ganz leisen iPod hört und nimmt deshalb auch den ganzen anderen Kram wahr. Und da sehe ich nichts, da ist es dunkel. Das war das Gemeine an der Frage.
[00:19:54] Das ist das Fiese, ja.
[00:19:56] Also das ist echt spannend.
[00:19:58] Ja, aber du kannst viel mit Aufmerksamkeit auch machen. Was ich zum Beispiel ganz faszinierend finde – mache ich auch total gerne, wenn ich mich in ein Café setze und dann stelle ich fest: Mensch, am Nebentisch laufen irgendwelche Gespräche, die möglicherweise interessanterweise sind als das Gespräch, was an meinem Tisch stattfindet. Dann kann man sich als Normalhörender eigentlich ganz prima darauf konzentrieren, sag mal, was machen die, worüber sprechen die am Nachbartisch eigentlich? Man kann das nicht so auf Anhieb, aber es dauert so einen kleinen Moment.
[00:20:18] Man kann sich so reintunen.
[00:20:19] Man kann sich so reintunen. Wenn du irgendwann so diesen Trigger gefunden hast von dem, der da spricht, dann kannst du da wirklich mithören. Andersrum, wenn es eine Stimme ist, die dich an irgendwas erinnert oder die du total ätzend findest, weil sie besonders hell, besonders dunkel oder besonders kratzig ist, dann wirst du sie nicht mehr los. Und du kannst wirklich mit Aufmerksamkeit, einer gewissen Kognition, kannst du da wirklich ganz bewusst auch Dinge steuern, die dein Hören betreffen.
[00:20:38] Wir waren beim Hörnerv, der irgendwelche Magic Dinge tut zwischen Ohr und Hirn. Da haben wir gerade drüber geredet, was der tut. Der macht eine Irrelevanzfilterung, ein besserer Begriff fällt mir keiner ein.
[00:20:48] Sowas in der Richtung.
[00:20:50] Dann kommt das Ganze irgendwann im Gehirn an. Dann passiert was?
[00:20:53] Dann wird das quasi zusammengefügt. Das, was du rechts gehört hast und das, was du links gehört hast. Und dann kommen wir zu etwas, was wir binaurales Hören nennen, also wo du quasi wirklich…binaural ist einfach rechtes Ohr und linkes Ohr zusammen addiert.
[00:21:06] 3D-Hören.
[00:21:07] 3D-Hören oder Stereo-Hören, wie auch immer du das nennen willst. Wir nennen es bei uns…in dem Metier der Audiologie heißt es binaural. Das ist eben, wo du sagst, jetzt füge ich rechts und links zusammen und darüber kann ich dann mir gesamte akustische Szenarien zusammen bilden und mir zum Beispiel überlegen, ob ein Schall von rechts oder von links kommt. Das ist ein sehr zentraler Prozess, da gibt es zwei Dinge, mit denen man das unterscheiden kann. Wenn es besonders hohe Töne sind, dann sind die auf dem der Schallquelle zugewandten Ohr immer lauter und auf dem der Schallquelle abgewandten Ohr sind sie ein bisschen leiser. Und infolgedessen kann man dann feststellen, aha, okay, der Schall kommt entweder von rechts oder von links. Für tiefe Frequenzen funktioniert das nicht ganz so gut. Die beugen sich ganz gut um diesen Kopf drum herum. Da ist es dann so, dass wir den Phasenunterschied zwischen diesen beiden Ohren auswerten und feststellen: Ah, die Phasendrehung ist – keine Ahnung – 15 Grad, muss von rechts kommen.
[00:21:53] Wie kriegen wir denn die Phase mit? Ist das auch…kriegt das auch…ja, doch klar, das kriegen diese Haare auch irgendwie mit. Also, die werden ja zu einem leicht anderen Zeitpunkt ausgelenkt.
[00:22:00] Ja, genau.
[00:22:01] Krass.
[00:22:02] Also, das ist ein sehr einfacher binauraler oder zentraler Effekt. Aber über diese ganzen zentralen Prozesse kann man unglaublich viel machen, wo du hergehst und sagst: Na okay, ich setze meine Aufmerksamkeit auf bestimmte Dinge oder ich bin gestresst, insgesamt ziemlich angespannt, heute bin ich sehr empfindlich gegenüber lauten Pegeln.
[00:22:21] Da reden wir dann nachher noch drüber, wenn es um die Hörgeräte dann geht. Eine Frage habe ich noch, bevor wir uns um die möglichen Fehlerquellen in diesem System kümmern. Und zwar: Dezibel, das ist ja eine ganz komische Einheit. Da gibt es dB(A), dB irgendwas anderes, ich hab mal gehört, dass Dezibel eine Maßeinheit sind, die nicht die Schallenergie direkt beschreibt, sondern schon das menschliche Hören irgendwie mit einbaut. Sag doch da mal was dazu, wenn schon mal jemand neben mir sitzt, der da eine Ahnung davon hat.
[00:22:49] Du hast mir ja die Fragen vorher gegeben, ich habe ein bisschen nachgelesen, weil ich auch dachte, das ist ganz schön lange her, dass ich da die Theorie bekommen habe. So als Physiker würde man hergehen und immer von Schallintensitäten sprechen.
[00:22:59] Genau, also Auslenkung der Welle.
[00:23:01] Genau oder Watt pro Quadratmeter. Wie viel Druck hast du auf einer bestimmten Fläche. Und weil du als Mensch eben so einen unglaublich großen Dynamikbereich abdeckst…
[00:23:10] Wie groß ist denn der?
[00:23:11] In dB kann ich es dir gut sagen.
[00:23:12] Ja, genau, in dB.
[00:23:13] In dB hast du so ungefähr 120 Dezibel. Aber das heißt, wenn du das umrechnen wollen würdest in Schallintensitäten, dann kommen da Zahlen mit ganz schrecklich vielen Nullen raus.
[00:23:22] Also mehrere Größenordnungen?
[00:23:24] Mehrere Größenordnungen, genau. Und dann ist es einfach unglaublich unhandlich. Für gewöhnlich hantieren wir mit Zahlen, die sich irgendwo in diesem Bereich zwischen Hörschwelle und Unbehaglichkeitsschwelle, da wo wir es ziemlich laut finden, bewegen. Und wenn wir da aber mit irgendwelchen Zahlen operieren würden, so und so viel zig Mikromillionstel Watt pro Quadratmeter, das wäre halt sehr unhandlich. Infolgedessen ist man hergegangen und hat diese Einheit Pegel eingeführt und man macht darüber eben, man reduziert quasi diesen großen Bereich auf einigermaßen handliche Zahlen und das wird angegeben in Dezibel.
[00:23:56] Und das ist eine logarithmische Geschichte?
[00:23:58] Genau, das ist eine logarithmische Geschichte, also darüber wirst du eben diese ganzen Nullen los an den Millionsteln. Eine grobe Einteilung ist: 0 dB, das ist ungefähr die Hörschwelle.
[00:24:06] Also leisestmögliche.
[00:24:08] Möglichst leise, genau, die entspricht so der Ruhehörschwelle eines Normalhörenden. Da hast du so ungefähr 0 dB. Besonders laut ist es irgendwo so bei 100 dB, naja 90 hört man so ungefähr auf der Straße, 100 ist, wenn du auf einer wirklich lauten Straße bist und so 120-130 sagt man so, haben startende Flugzeuge. Und wenn wir jetzt hier miteinander sprechen, so in Ruhe, dann hat man so einen mittleren Pegel von 65 dB. Aber um mal so ein Gefühl zu kriegen, in was für Bereichen man sich da bewegt. Da kommen recht viel handlichere Zahlen raus, mit denen man auch sprechen kann.
[00:24:35] Aber irgendwelche psychologisch zentralen Effekte werden da nicht mit reingenommen, sondern es ist schon die Schallenergie und dann irgendwie ein Logarithmus zu irgendeiner Basis?
[00:24:46] Genau. Kleine Nuancen gibt es da noch. Du kommst zuerst mal an den dB SPL, also das ist eine sehr technische Größe, einfach: Wie groß ist der Pegel? Und wenn du zum Beispiel an so Pegelmesser denkst, mittlerweile gibt es die auch schon als App fürs iPhone, die machen so eine gewisse Bewertung in dB(A) und dann ist das quasi eine gehörgerechte Bewertung.
[00:25:07] Ah, das dB(A) ist das Gehör…ah, okay.
[00:25:09] Das bringt quasi so eine gehörgerechte Bewertung mit rein.
[00:25:11] So wie gefühlte Temperatur?
[00:25:13] Genau, es ist so etwas wie gefühlte Temperatur. dB(A) heißt eben, da legt man quasi die Ruhehörschwelle eines Normalhörenden zugrunde und sagt: Alles, was der jetzt hört, das ist quasi normalisiert dann auf die Ruhehörschwelle eines Normalhörenden.
[00:25:23] Das ist ein Faktor dann zu dem dB S?
[00:25:25] Ja, man korrigiert das. Also es gibt bestimmte Frequenzen, wo wir besonders gut hören können. Das ist so 1 kHz, 2 kHz, da sind wir besonders gut. Und es gibt andere Frequenzen, wo wir nicht so gut hören können, das sind besonders hohe und besonders tiefe Frequenzen und das normalisiert man darauf ein bisschen. Es gibt noch andere Zahlen mit B, C, D, das ist halt für unterschiedliche Pegel und je höher der Buchstabe, desto eher muss man das hernehmen um eine laute Situation zu bewerten. Aber das nur am Rande.
[00:25:47] Gut. Ja, dB(A) ist im Prinzip die Einheit, die man eigentlich meistens kennt.
[00:25:51] Ja, genau. Gut ist, wenn man da weiß: Das ist schon eher eine gehörgerechte Bewertung als einfach nur ein dB.
[00:25:58] Gut, dann können wir uns jetzt mal den möglichen Fehlfunktionen dieses Systems Ohr und Hören zuwenden. Ich denke mir, es gibt da wahrscheinlich Fehler in der Physik des Ohrs, es gibt wahrscheinlich Fehler im Leiten der Nervenzellen und irgendwas im Hirn vielleicht. Möglicherweise. Ist das eine sinnvolle Einteilung?
[00:26:20] Ja, die ist schon ganz gut.
[00:26:22] Magst du da ein bisschen elaboraten?
[00:26:25] Ja, das kann ich gerne machen. Ich wander wieder so von außen nach innen, das hilft mir mich so ein bisschen zu sortieren. Das einfachste, was du hast, das hast du vorhin ja auch schon angesprochen: Mittelohr. Das ist das, was sich bei Kindern ganz gern entzündet. Natürlich ist es immer schlimm, wenn man so etwas hat, aber das ist eine recht harmlose Krankheit, Mittelohrentzündung. Da ist halt das Ohr dann irgendwie mit Eiter gefüllt und entweder kriegt man es durch Antibiotika wieder weg oder man setzt halt so kleine Röhrchen, macht Entlüftungslöcher in das Mittelohr und dann läuft das ab. Also die trocknen aus und danach ist alles wieder gut.
[00:26:53] Hat das Konsequenzen für das Hörvermögen?
[00:26:56] Bis zu einem ganz geringen Anteil.
[00:26:58] Aber auch nur temporär?
[00:26:59] Nicht unbedingt nur temporär. Also, während du dieses Röhrchen da drin hast, hörst du natürlich schlechter, weil diese Schwingungsfähigkeit deines Trommelfells sich ändert.
[00:27:05] Ach, das wird wieder raus gemacht?
[00:27:06] Das wächst wieder raus. Das Trommelfell hat so eine gewisse Selbstheilungsfunktion. Also auch, wenn du dir irgendwie…du steckst dir was in die Haut, das wächst auch…der Körper würde das erstmal wieder abstoßen und das passiert mit dem Röhrchen im Trommelfell auch. Das wächst halt wieder raus, irgendwann liegt es am Trommelfell und dann liegt es im Gehörgang und irgendwann schläfst du nachts mal auf der rechten Seite und dann kullert es raus und meistens findest du es nie wieder, weil die wirklich ganz klein sind. Aber das sind wirklich so…naja, die Mittelohrentzündung ist eine Krankheit des Mittelohrs. Darüber hinaus gibt es noch andere Krankheiten. Die können sich künstlich versteifen, es gibt Narben auf dem Trommelfell, es gibt Löcher im Trommelfell. Das sind vielfach so Sachen, die kann man teilweise durchaus operativ lösen. Es gibt künstliche Trommelfelle, die man einsetzen kann. Da zieht man so ein bisschen Haut vom Ohr ab und setzt die vor dem Mittelohr wieder ein. Wenn sich an diesen Knöchelchen irgendwas tut, wenn die reißen oder so, das sind aber wirklich seltene Sachen, dann wird sowas heute mit kleinen Keramik-Implantaten wieder ersetzt. Was ganz witzig ist, im Volksmund ist immer eine Schädigung, also das Trommelfell, wenn das kaputt ist, dann ist das immer ganz schlimm. Weil diejenigen, die sich näher mit dem Hören beschäftigen…ich will nicht sagen, dass das eine Lappalie ist, aber es ist eigentlich eine wirklich recht einfache Sache. Die richtig heiklen Sachen passieren eigentlich erst dahinter, wenn am Hörnerv was passiert oder in der Schnecke was kaputt geht.
[00:28:18] Also nochmal, Zusammenfassung: Während das Mittelohr entzündet ist oder auch später dann mittelfristig durch Vernarbung kann aufgrund der geänderten Schwingungseigenschaften und letztendlich mechanischen Schallempfindlichkeit eine Beeinträchtigung des Hörens stattfinden.
[00:28:33] Ja, genau. Eine ganz einfache Sache davon erlebst du jedes Mal, wenn du fliegst. Das Trommelfell trennt das Außenohr von dem Mittelohr, da wo die kleinen Gehörknöchelchen sitzen. Und das funktioniert natürlich dann besonders gut, wenn der Druck auf beiden Seiten ungefähr gleich groß ist. Um das herzustellen, gibt es so eine kleine Röhre, durch die findet so eine Belüftung des Mittelohrs statt.
[00:28:51] Durch die Nase kommt die ja irgendwie rein.
[00:28:52] Ja, genau. Eustachi’sche Röhre hängt hinten an der Nase dran. Was jetzt passiert, wenn du dich in ein Flugzeug setzt: Der Luftdruck außen ändert sich in der Kabine, verändert sich auch auf der Außenseite des Trommelfells, aber auf der Innenseite des Trommelfells bleibt der Druck gleich wie vorher. Und das bleibt der so lange, bis sich diese Röhre öffnet. Das kann man provozieren durch K-Laute oder…
[00:29:09] Ja, oder reinblasen.
[00:29:11] Dieses Reinblasen, genau. Und dann hast du wieder den gleichen Druck und dann hörst du wieder gut. Solange wie du nicht den gleichen Druck hast, verschiebt sich aber die Resonanzfrequenz, das kannst du dir wie so ein Feder-Masse System vorstellen, verschiebt sich diese Resonanzfrequenz und du hörst entweder heller oder dumpfer.
[00:29:22] Okay. Damit sind wir quasi bei der Mittelohrentzündung und den zusammenhängenden Folgeschäden sozusagen. Gehen wir noch ein Stückchen weiter rein, da kommen wir jetzt dann zu den Knöchelchen, da haben wir drüber geredet. Da kommen wir zu dem wassergefüllten Innenohr.
[00:29:37] Genau. Da gibt es unterschiedliche Arten von Schädigungen, die man so davon tragen kann. Was recht weit verbreitet ist, ist, dass einfach diese Haarsinneszellen absterben oder ausfallen.
[00:29:48] Das sind dann die in der Schnecke schon?
[00:29:49] Genau, das sind die in der Schnecke. Und es kann durchaus Schädigungen geben, entweder sind die äußeren Haarsinneszellen nicht mehr intakt, also sie sterben, weil sie überaltert sind, sie sterben ab, weil sie zu hohe Pegel…oder zu hohe Auslenkungen der Wanderwelle können diese Haarsinneszellen abscheren.
[00:30:04] Disko?
[00:30:05] Disko, iPod. Die scheren diese Haarsinneszellen ab. Und diese Schädigungen können sowohl die äußeren als auch die inneren Haarsinneszellen betreffen. Je nachdem, welche betroffen sind, fehlt dir entweder dieser kleine cochleare Verstärker oder aber der Rezeptor auf der Innenseite, der sagt: „Das ist mein Ton.“ Und typisches Bild ist eigentlich, dass die hohen Frequenzen stärker geschädigt sind als die tiefen Frequenzen. Einfach, weil die unten am Eingang von der Schnecke sind und bei denen kommt ja quasi alles vorbei, wobei oben an der Spitze wirklich nur die tiefen Töne noch ankommen und die anderen Wanderwellen haben sich bis dahin ausgelaufen.
[00:30:35] Deshalb wird man, wenn man älter wird, kann man vor allem die hohen Töne nicht mehr hören. Dass ein Fernseher fiept, den hört man als Kind, aber als…
[00:30:42] Genau. Alterungsprozesse eben, Lärm trägt mit dazu bei, es gibt Medikamente, die ototoxisch sind, also quasi giftig für das Ohr oder den Hörnerv. Zu viel Aspirin zum Beispiel, davon sterben Haarsinneszellen oder können Haarsinneszellen sterben, ich drücke mich vorsichtiger aus. Aber da gibt es eine ganze Reihe von Schädigungen im Innenohr. Dazu kommt, wenn du noch weiter nach innen wanderst, es gibt auch Schädigungen, die sind nicht in der Cochlea, sondern sitzen hinter der Cochlea.
[00:31:14] Cochlea ist diese Schnecke?
[00:31:14] Cochlea ist die Schnecke. Die sitzen hinter dieser Schnecke, quasi auf dem Hörnerv. Da gibt es natürlich auch insbesondere im Zusammenhang mit dem Älterwerden irgendwelche degenerativen Prozesse, die dafür sorgen, dass die Verbindung nicht mehr so gut ist. Und die verkümmert dann. Witzigerweise auch, also eigentlich nicht witzigerweise, traurigerweise so ein Prozess, der sich eigentlich selbst noch verstärkt. Dieser Hörnerv ist natürlich dann immer besonders aktiv, wenn der ständig befeuert wird. Ähnlich wie, keine Ahnung, so ein Gehweg, wo ständig jemand drüber läuft. Da wächst relativ wenig Unkraut drauf. Wenn du jetzt einen Gehweg hast, der nicht so oft begangen wird, kommt da zwischendurch schon mal das Unkraut hoch. Und ähnlich kannst du dir das mit deinem Ohr auch vorstellen. Wenn die äußeren Haarsinneszellen absterben, weil es zu laut war, weil du alt wirst, ist natürlich auch weniger Aktivität auf diesem Hörnerv. Infolgedessen ist der auch weniger ausgeprägt und weniger leistungsfähig.
[00:32:01] Taubheit, angeborene Taubheit, funktioniert aber…also was ist da kaputt? Das ist ja dann keine Gebrauchsschädigung, sondern irgendwas anderes. Oder fehlen da die Haare, also diese Härchen, oder…
[00:32:15] Das ist sehr unterschiedlich. Es gibt teilweise Fehler der Schnecke. Also wenn Kinder zu früh geboren werden, ist diese Schnecke möglicherweise noch nicht völlig ausgereift. Dann haben die oftmals irgendwelche Hörschädigungen, wenn Mütter mit ungeborenen Kindern nicht besonders sorgsam sind, Medikamente nehmen, Masern haben oder sowas. Dann kann das dazu führen, dass eben das Ohr des Kindes nicht völlig auswächst. Dann kann es sein, dass ein Kind auf die Welt kommt, was durchaus einen funktionierenden Hörnerv hätte oder bekommen könnte, aber wo das Innenohr nicht richtig funktioniert.
[00:32:43] Also wir müssen auch jetzt da nicht alle möglichen Szenarien durchgehen. Ich hab diese Frage deshalb da auch eingebaut, um ein Gefühl dafür zu kriegen, gegen welche dieser Schädigungen Hörgeräte kompensieren können. Also, ich meine, wenn du, mal ganz blöd formuliert, kein Gehirn hast…
[00:32:59] Dann kommst du mit einem Hörgerät nicht weit.
[00:33:01] Eben. Und wahrscheinlich gilt das auch für den Hörnerv, weil das Hörgerät ja eigentlich vor allem den Input lauter macht. Das ist ja immer noch die Übertragung über das Trommelfell. Versuchen wir es mal so rum aufzuziehen: Welche Schädigungen kann man mit einem klassischen Hörgerät kompensieren? Es gibt, glaube ich, auch Hörgeräte, die über den Knochen gehen, oder täusche ich mich da?
[00:33:18] Ja, gibt es auch.
[00:33:19] Wollen wir da vielleicht die zwei mal kurz unterscheiden und dann…kompliziertes Thema.
[00:33:23] Ja, das Schöne ist: Das musst du nachher in deinem Podcast sortieren und das muss nicht ich machen.
[00:33:27] Ich sortier da gar nichts.
[00:33:29] Also, es gibt unterschiedliche Arten von Hörgeräten. Was wir machen, sind sogenannte Luftleitungshörgeräte. Das heißt, Schall kommt rein und was das Hörgerät abgibt, ist auch wieder ein akustisches Schallsignal.
[00:33:41] Mit anderen Worten: Das gesamte System, so wie wir es jetzt beschrieben haben, wird weiterhin verwendet und es wird nur – in Anführungszeichen – …verstärkt das Hörgerät clever. Da reden wir nachher drüber.
[00:33:53] Genau, das ist das, was wir machen. Aber alles das, was wir tun hier, kommt irgendwo im Gehörgang raus und arbeitet dann auf dem verbliebenen Mittelohr und auf dem verbliebenen Innenohr. Genau. Eine Variante sind sogenannte Knochenleitungshörgeräte, BAHA – Bone Anchored Hearing Instruments. Oder Hearing Aids. Die umgehen das Mittelohr und regen direkt dieses Innenohr an. Das kannst du auch wieder ausprobieren, Knochenleitung. Also wenn du auf deinen Kopf klopfst, dann merkst du nicht nur, dass es klopft, sondern du hörst durchaus auch etwas im Innenohr.
[00:34:25] Ja, oder du hältst dir eine Stimmgabel an die Stirn. Gutes Experiment.
[00:34:28] Genau, das ist der beste Test dafür. Darüber kannst du das Mittelohr umgehen und direkt das Innenohr anregen.
[00:34:35] Quasi ein Diagnoseverfahren, was der Arzt dann vielleicht einsetzen könnte, oder?
[00:34:38] Das machen die sogar. Das ist irgendwie so ein recht einfacher Screening-Test: Kann jemand normal hören? – Dafür macht man so Stimmgabel-Tests, da musst du nicht erst Kopfhörer aufsetzen, sondern einfach ping, anschlagen und du setzt dir das Ding auf die Stirn. Hörst du den Ton auf beiden Seiten gleich laut, dann ist erstmal alles prima. Wenn du sagst, oh, rechts ist viel lauter als links, dann weißt du: Irgendwas stimmt nicht.
[00:34:55] Und zwar im Innenohr, oder?
[00:34:56] Nein, kann auch…ist eine fiese Sache. Kann auch im Außenohr sein. Die Tücke ist: Wenn du auf der einen Seite eine Mittelohrentzündung hast, dann hörst du da natürlich viel weniger Nebengeräusche von dem komischen lauten Arztzimmer und dann hörst du es natürlich auf der Seite lauter. Und dabei ist das Problem quasi: Das Mittelohr ist verstopft, Mittelohrentzündung. Genau, aber diese Knochenleitungsgeräte, die machen nichts anderes, die wackeln wie eine Stimmgabel an deinem Schädel und umgehen damit quasi diesen Weg Mittelohr und regen direkt das Innenohr an. Wendet man dann an, wenn du Mittelohrschädigungen hast und zum Teil auch Innenohr-Schädigungen, dann gibt es sowas. Sind häufig Exoten, sage ich mal.
[00:35:32] Das ist nicht das typische Hörgerät, was man im Alter trägt?
[00:35:34] Nein, ist nicht so das typische Gerät, eigentlich.
[00:35:35] Das heißt, das typische Hörgerät, ganz vereinfacht, hat ein Mikrofon, nimmt die Umgebungsgeräusche auf, verstärkt die um das schlechtere Hören zu kompensieren und schiebt die wieder auf dein Trommelfell.
[00:35:45] Ja, das ist das, was das typische Hörgerät macht. Ich kann dir vielleicht noch zwei Sonderformen aufzählen. Dann mache ich quasi diese Liste mit Hörgerät, BAHA, kurz zu Ende. Es gibt noch sogenannte Mittelohrimplantate, das sind Geräte, die setzen im Mittelohr an. Da sitzen dann kleine…entweder Nadeln, die künstlich an diesen Mittelohrknöchelchen wackeln, oder so kleine Schwingungsdinger, die werden da drauf gemacht, kleine Tonnen, die wackeln am Mittelohr und machen damit quasi Verstärkung. Das wird implantiert, ist auch nicht besonders weit verbreitet.
[00:36:12] Aber da kann doch die Auflösung, was die verschiedenen Frequenzen angeht, nicht mehr so gut sein wie im Original. Ich hab doch da 5000 verschiedene kleine Härchen. Oder kann ich die alle so filigran mechanisch anregen?
[00:36:21] Ah, nein, das Mittelohr. Da, wo der Hammer ist, wo diese Impedanzanpassung passiert. Da setzen die an. In der Schnecke selbst, da macht man auch was, insbesondere so bei Leuten, die…oder bei Kindern, die taub auf die Welt kommen. Wenn man festgestellt hat, das Innenohr funktioniert nicht…
[00:36:34] Da gibt es den Begriff Cochlea-Implantat. Hab ich schon mal gehört.
[00:36:36] Genau, da gibt es Cochlea-Implantate. Das ist so eine kleine Elektrode und die regen dann wirklich also nicht mehr vorher akustisch oder physikalisch an, sondern die regen dann elektrisch an. Diese Elektrode wird in die Cochlea eingeführt, windet sich quasi um die Schnecke und das Hörgerät, oder das Cochlea-Implantat ist das dann, regt dann einzelne Elektroden in der Schnecke an. Und darüber kann man dann quasi auch wieder trainieren und diesen Hörnerv ausbilden, dass man feststellt: Okay, das sind tiefe Töne oder hohe Töne, je nachdem, welche Elektrode eben gerade einen bestimmten Strom abbildet.
[00:37:02] Und kann man damit nachher vergleichbar gut hören wie mit einem normalen Ohr, oder ist das schon eine Einschränkung?
[00:37:07] Nein, das ist schon eine Einschränkung. Also da kommst du…
[00:37:10] Also mit anderen Worten: Gespräch wird man verstehen können, aber an der Oper wird man sich wahrscheinlich nicht freuen.
[00:37:15] Ja.
[00:37:17] Okay, dann lass uns jetzt mal ein bisschen über die Technologien im Hörgerät und über die Verfahren der Hörschwächenkompensation reden. Und zwar bleiben wir bei dem Luftleiter, dem Standard-Hörgerät. Wenn wir vielleicht mal drüber reden, welche grundsätzlichen Mechanismen da verwendet werden. Also wenn wir mal davon ausgehen, beispielsweise, dass einzelne der Härchen in der Schnecke geschädigt sind, das heißt, man hört bei bestimmten Frequenzen schlechter, dann könnte ich mir vorstellen, dass ein Kompensationsmechanismus genau darin besteht, wie so ein Equalizer bei bestimmten Frequenzen lauter zu machen.
[00:37:53] Genau. Das ist genau das, was Hörgeräte tun. Du kannst dir das wie so ein Puzzle vorstellen. Wenn du einen Hörverlust hast, dann gibt es möglicherweise Frequenzen, häufig tiefe Frequenzen, bei denen du noch gut hörst, hohe Frequenzen, bei denen man schlechter hört. Und was das Hörgerät dann macht, ist eben: frequenzspezifisch schauen, um wie viel dB muss ich das Eingangssignal verstärken, damit ich es wieder über die verschobene oder verkippte Hörschwelle drüber hebe? Das ist so das Einfachste, was Hörgeräte machen.
[00:38:20] Nochmal kurz eine blöde Frage, einen Schritt zurück: Woher weiß ich denn eigentlich, wie gut ein Patient, ein Kunde, ein Hörgeräteträger, wie der bei bestimmten Frequenzen hört? Wie kriege ich das raus?
[00:38:30] Es gibt einen Hörtest, den nennen wir Audiogramm. Das ist ein recht, naja ich will nicht sagen einfacher Test, aber das ist ein Test, der wird beim Ohrenarzt durchgeführt oder beim Hörgeräteakustiker. Du musst dir das so vorstellen: Du setzt dir einen Kopfhörer auf und ich spiele dir Töne vor bei unterschiedlichen Frequenzen. Also das sind reine Sinustöne. Ich spiele dir einen Ton vor und bitte dich vorher: Sag mir Bescheid, wenn du diesen Ton so gerade eben hören kannst.
[00:38:50] Achse, der wird lauter quasi?
[00:38:51] Genau, der wird kontinuierlich lauter. Du sagst mir, wenn du den Ton hörst. Ich mach den Ton kontinuierlich lauter und irgendwann sagst du: „Jetzt höre ich ihn.“, dann habe ich deine Hörschwelle an der ersten Frequenz bestimmt. Das mache ich frequenzweise. Für gewöhnlich macht man das so von 125 Hz bis 8 kHz, gerade im Zusammenhang mit Schwerhörigkeit. Darüber bekommt man dann quasi eine Hörschwelle als Funktion über der Frequenz raus.
[00:39:09] Okay. Gut, und das heißt also, im Prinzip wird dann in dem Hörgerät eine entsprechende Kompensations-Equalizer-Einstellung da reingelegt. Also je schlechter ich bei der Frequenz höre, desto stärker verstärkt der Verstärker im Hörgerät.
[00:39:22] Genau, das ist so die einfache Daumenregel, die man so anwenden würde. Je schlechter du bei Frequenz soundso hörst, desto mehr Verstärkung macht man da.
[00:39:31] Weil du jetzt sagst „Daumenregel“: Wie üblich ist alles in der Praxis nicht so einfach, wie es hier klingt. Was macht man jenseits des Daumens?
[00:39:38] Naja, ich hab dir ja vorhin erklärt, dass diese äußeren Haarsinneszellen auf der einen Seite leise Pegel verstärken, aber für laute Pegel als Begrenzer oder Kompressor wirken und dafür sorgen, dass es nicht unangenehm laut wird.
[00:39:50] Das heißt, das baut ihr auch ein?
[00:39:51] Das bauen wir auch ein und das ist vor allen Dingen ganz besonders wichtig. Wenn wir hergehen und einfach nur alles, was rein kommt, frequenzabhängig verstärken, dann führt das ziemlich schnell dazu, dass Leute sagen: „Hey, schrei doch nicht gleich so!“ Das ist ein typisches Phänomen, jemand kann schlecht hören, du sprichst das erste Mal mit dem und der sagt: „Bitte? Hab ich nicht verstanden.“ Dann sprichst du nochmal lauter und dann sagt der zu dir: „Hey, komm, schrei doch nicht gleich so.“ Dann kannst du sagen: „Weißt du, Mensch, hör mal, bei dem sind zum Beispiel die äußeren Haarsinneszellen geschädigt.“ Leise Sachen hört der nicht so, werden nicht verstärkt. Laute Signale werden nicht begrenzt. Und was wir mit Hörgeräten machen müssen, ist: Schauen, wie groß ist der verbleibende Dynamimbereich? Oder die Restdynamik, so nennen wir das. Das heißt, wir müssen leise Schalle über die Hörschwelle drüber heben. Schalle, die über der Hörschwelle liegen, müssen wir aber komprimieren, damit wir nicht zu laut werden oder es unangenehm laut wahrgenommen wird.
[00:40:39] Eine Sache, die ich bei der Vorbereitung gelernt habe, ist, dass bei einem Schwerhörigen zwar die Hörschwelle, also die Lautstärke, ab der man es hört, nach oben geht. Also er hört nur lautere Sachen. Und dass aber die Schmerzempfindungsschwelle, also quasi der obere Bereich des angenehmen Hörens, dass der nicht nach oben geht. Das heißt sozusagen, der Delta-Bereich, der für ihn taugt, der wird kleiner. Und da müsst ihr quasi mit einem Kompressor rein treffen.
[00:41:01] Genau und das ist eigentlich das, was uns das Leben so schwer macht. Ich sag mal, einfach Verstärkung machen, das kannst du auch mit der Stereoanlage zuhause. Aber eben, was Hörgeräte machen müssen, ist frequenzspezifisch schauen: Wie viel Verstärkung muss ich machen? Wir müssen frequenzspezifisch schauen: Wie viel Kompression müssen wir anwenden? Und als Sicherheitsstufe oben drüber muss nochmal eine Begrenzung passieren, damit wir wirklich nicht drüber gehen. Da muss es noch eine frequenzspezifische Begrenzung geben. Und das ist das, was eben über diese Daumenregel „Naja, du kannst da schlecht hören, machst ein bisschen Verstärkung drauf“ hinaus geht.
[00:41:26] Okay, das heißt, ihr habt neben dem Kompressor auch noch so eine maximale Ausgangspegelbegrenzung, dass egal was euer toller Algorithmus ausrechnet, lauter als so ist nicht.
[00:41:34] Genau, lauter als so ist nicht. Da wird abgeschnitten. Einfach damit du nicht raus gehst auf die Straße und einen Schlag kriegst, wenn der Laster an dir vorbei fährt.
[00:41:40] Genau. Da gibt es auch interessante Effekte, erkrankungsmäßig. Ich hab gelegentlich mal – ich bin da ein bisschen empfindlich im Ohr – hab immer wieder mal so ein bisschen Mittelohrentzündung und ich stelle fest, dass, wenn das Mittelohr entzündet ist, laute, hohe Töne, so wie wenn du Geschirr in die Geschirrschublade schmeißt, unheimlich laut ankommen und es ganz schnell weh tut.
[00:41:57] Ja, ja.
[00:41:58] Eine andere Sache, die ich auch hier gehört hab, ich bin gerade softwaretechnisch unterwegs, daher auch dieses Thema. Es gibt wohl auch so eine Art Kantenglättung, das heißt also, wenn es eine Sprungfunktion gibt, wie wenn du mit einem Messer irgendwo – kling! – dagegen haust, da wird wohl auch ein bisschen geglättet noch. Also dass es nicht so ein schlagartiger Peak ist, sondern mehr so eine Glocke.
[00:42:19] Ich sag mal so, grundlegend kannst du ein Hörgerät schon bauen einfach nur mit einer gewissen Verstärkung, Kompression und Ausgangspegel begrenzen. Damit hast du eigentlich alles, was du brauchst für ein Hörgerät. Und häufig sind Hörgeräteträger mit dieser Basistechnologie nicht zufrieden, so dass wir eben mit einer ganzen Abteilung hier daran arbeiten: Was für Signalverarbeitungsalgorithmen kann man eigentlich noch in so einem Hörgerät unterbringen, damit du eben zum Beispiel den Komfort ein bisschen erhöhst? Kantenglättung, du hast irgendein lautes Signal, was weiß ich, zwei Teller schlagen aufeinander, zwei Gläser hauen zusammen, irgendeine Tür schlägt zu, dann geht eben ein Algorithmus her, der schaut so ein kleines Stückchen in die Zukunft und sagt: „Ups, da kommt ein kurzes transientes lautes Signal, das begrenze ich, damit es eben dem Hörgeräteträger nicht so unangenehm laut vorkommt.
[00:42:58] Das heißt aber, das Hörgerät produziert auch eine kleine Verzögerung?
[00:43:01] Ja, natürlich.
[00:43:02] Hören wir die? Nehmen wir nicht wahr.
[00:43:03] Die nehmen wir nicht wahr. Die ist typischerweise im Bereich unter zehn Millisekunden. Das ist unkritisch.
[00:43:09] Aber es sollte vielleicht auf beiden Seiten, wenn man auf beiden Seiten ein Hörgerät hat, irgendwie gleich sein. Sonst wird es, glaube ich, peinlich, oder?
[00:43:14] Ja, sonst wird es irgendwann blöd. Also dann sind wir wieder bei diesem Punkt Lokalisation: Was kommt von rechts und was kommt von links? Wenn das unterschiedlich ist, verschiebt sich das natürlich.
[00:43:21] Eine andere Geschichte, die ich gehört habe: Rückkopplungsunterdrückung. Was koppelt denn da rück? Das verstehe ich gerade nicht ganz.
[00:43:28] Das ist mit eines der Hauptthemen, an denen wir hier arbeiten. Der Effekt ist ganz ähnlich, wie man das auf Bühnen schon mal sieht. Irgendein Sänger hat ein Mikrofon in der Hand, geht zu nah an den Lautsprecher und es kommt so ein großes „Boom“ da raus. Das Gleiche passiert bei Hörgeräten auch. Wir haben ein sehr kleines Mikrofon, einen sehr kleinen Lautsprecher, die sind räumlich auch sehr dicht beieinander. Infolgedessen, wenn wir einen bestimmten Schwellwert in unserer Verstärkung überschreiten, koppelt das Ausgangssignal zurück ins Eingangssignal. Und weil das Ganze eben ein bisschen kleiner ist, macht es dort nicht „Boom“, sondern es pfeift halt eher hell, so ein hochfrequentes Fiepen oder Pfeifen, was da raus kommt. Nervt total und ist auch jahrelang Grund dafür gewesen, warum Leute gesagt haben: „Ich kaufe mir kein Hörgerät.“ Und infolgedessen hat sich halt also die Industrie hingesetzt: „Mensch, was kann man denn da machen?“
[00:44:09] Ach so, das ist eine relativ neue Entwicklung dann auch?
[00:44:11] Ja, also…naja relativ neu. Nicht vorgestern, aber in den letzten zehn Jahren tut sich da einiges, dass es da viele Algorithmen gibt und das ist auch durchaus mal was, wo sich Hörgeräte heutzutage unterscheiden. Also von Hersteller zu Hersteller oder von teurerem Gerät zu billigem Gerät. Die teuren Geräte sind da eben besonders gut oder besonders robust, erkennen schnell: „Hoppla, da schwingt sich das Gerät auf. Ich erzeuge zum Beispiel ein entsprechend gegenphasiges Signal, um diese Rückkopplung auszulöschen.“
[00:44:36] Das heißt, da wird quasi das rückgekoppelte Eingangssignal über einen Gegenschall genullt? Weil das Ausgangssignal will ich ja weiter haben. Ich kann ja nicht sagen, ich mach jetzt das Ausgangssignal leiser, damit es nicht rückkoppelt.
[00:44:47] Ja, genau. Das waren so die ersten Ansätze, die es gab. Wenn es pfeift, nehmen wir einfach die Verstärkung runter.
[00:44:52] Super Idee, hört man halt nichts mehr.
[00:44:54] Genau. Macht halt nicht mehr das, was Hörgeräte tun sollen. Mittlerweile ist man so weit, dass man hergeht und sagt: „Gut, dann müssen wir gegenphasige Signale erzeugen.“ Und der Clou ist eben jetzt rauszufinden: Wann ist der Zeitpunkt, wo du zuschlagen musst, damit du das gegenphasige Signal einspeist, ohne dass du erst ein Pfeifen hörst? Und dann erst das gegenphasige Signal zwei Sekunden danach kommt. Also zum Einen eben besonders schnell reagieren und dummerweise gibt es ja auch so Pfeifsignale draußen im echten Leben. Wenn du jetzt…
[00:45:19] Ach so, klar! Ihr könnt ja nicht erkennen, ob es sich dabei um ein rück…doch, könnt ihr schon. Ihr könnt ja wissen, wenn der Pfeifton genau dann entsteht…naja, ich weiß nicht. Also, okay, ich wollte dich eigentlich nicht unterbrechen.
[00:45:29] Nein, ich schau mal, ob du es auch rausfindest.
[00:45:32] Ich mach mir halt gerade Gedanken, weil ich will ja unterscheiden zwischen dem…Also angenommen, dieses Hörgerät hat einen bestimmten, charakteristischen Rückkoppel-Pfeifton. Dann will ich den, wenn er von außen kommt, natürlich trotzdem einspielen. Das heißt, ich kann nicht nur anhand des Pfeiftons erkennen, dass es sich um eine Rückkopplung handelt.
[00:45:46] Ja, genau.
[00:45:46] Sondern?
[00:45:47] Ziel ist es: Wir möchten unterscheiden, was ist das, was Rückkopplung ist, was keiner haben möchte? Und was ist eigentlich wirklich draußen an echten Schallen oder echten Signalen vorhanden? Zum Beispiel beim Musikhören, ganz ätzend, wenn da so ein Rückkopplungsalgorithmus rein geht und deine Sinustöne da raus rechnet. Was wir tun ist, wir prägen auf das Ausgangssignal des Hörgeräts so eine kleine Modulation auf. Die ist sehr tieffrequent, so dass man die nicht hört. Aber das Mikrofon am Hörgeräteeingang schaut kontinuierlich: Taucht eigentlich diese Modulation am Eingang wieder auf? Und wenn das der Fall ist, dann weiß das Hörgerät: Das ist ein Rückkopplungsschall. Oder wenn ein Sinuston rein kommt, der diese Modulation nicht aufweist, dann weiß das Hörgerät: Das muss zum Beispiel Musik sein.
[00:46:23] Krass. Also ihr watermarked sozusagen das Signal, so dass ihr es dann wieder erkennen könnt?
[00:46:29] Ja.
[00:46:30] Witzig, witzig. Okay, das ist jetzt alles Algorithmik. Ein anderes Feature, was ich mitbekommen habe, ist: Es gibt auch Richtmikrofone in den Dingern. Was heißt das? Kann sich das dann wirklich bewegen? Woher weiß das, wo es sich hinbewegen soll?
[00:46:45] Es bewegt sich nicht, aber es schaut in eine bestimmte Richtung.
[00:46:47] Ah, okay. Das ist fest nach vorne typischerweise ausgerichtet.
[00:46:52] Genau. In der Vergangenheit hatte ein Hörgerät nur ein Mikrofon. Damit haben Schwerhörige häufig gut verstanden in ruhigen Umgebungen, das hat halt alles lauter gemacht. Aber in geräuschvoller Umgebung gab es große Probleme, weil halt viele Störgeräusche von hinten kamen. Und als Schwerhöriger kannst du nicht mehr so schön Sprache von Nebengeräuschen trennen. Infolgedessen versuchen wir mit unseren Hörgeräten den Leuten das Leben so ein bisschen zu erleichtern und zu sagen: Wir versuchen einfach abzuschätzen, was bei dir ist Sprache und was bei dir ist Störgeräusch? Und als Daumenregel wenden wir da an: Naja, alles was von vorne kommt, wird wahrscheinlich eher Nutzsignal sein, das möchtest du hören, da wo du hin schaust. Und das von hinten versuchen wir so ein bisschen zu bedämpfen.
[00:47:28] Ach so und dann habt ihr quasi zwei Mikrofone?
[00:47:30] Genau, was wir machen ist: Wir bauen zwei Mikrofone ein und vergleichen, was kommt vorne an, was kommt hinten an? Und Signale, die von hinten kommen, bedämpfen wir und Signale, die von vorne kommen, heben wir zusätzlich an, damit du bevorzugt das hörst, was von vorne kommt.
[00:47:43] Das heißt also, es gibt ja auch so dieses Feature, dass man die Sprache verstärkt und die Umgebungsgeräusche oder die Störgeräusche reduziert. Das geht quasi nicht anhand von „Spracherkennung“, sondern mehr oder weniger über Differenzbildung zwischen dem, was von vorne und was von hinten kommt.
[00:47:58] Das sind zwei unterschiedliche Features oder Algorithmen, die wir da verwenden. Das Eine ist wirklich Richtmikrofon, was erstmal unabhängig vom Signal sagt: Das, was von vorne kommt, ist das, was du hören möchtest. Was von hinten kommt, ist nichts, was du ganz gerne hören möchtest, das wird bedämpft. Zusätzlich gibt es Algorithmen, die wir als Geräuschreduktion bezeichnen, wo wir sagen: Es gibt bestimmte charakteristische Signale oder Anteile von Sprache, die wir hervorheben und andere Anteile, die kann man an der Stationarität zum Beispiel erkennen. Irgendwas, was tieffrequent, gleichmäßig ist, wenig moduliert, das ist wahrscheinlich eher ein Nebengeräusch, als dass es Sprache ist. Das kann man absenken.
[00:48:31] Ich könnte mir auch vorstellen, dass man in verschiedenen Situationen andere solche Algorithmen hören will. In der Oper redet ja niemand per Definition, das heißt, da will ich diesen Algorithmus, der spezielle Frequenzen hervorhebt, vielleicht nicht haben. Kann man die Hörgeräte da umschalten? So nach dem Motto: Ich bin jetzt in der Oper, jetzt rede ich gerade mit jemandem, jetzt rede ich in einer lauten Umgebung, Fernsehmodus?
[00:48:52] Ja. Einfachere Hörgeräte haben zusätzliche Hörprogramme. Die haben so einen kleinen Taster, entweder auf dem Rücken oder irgendwo draußen, wo du drauf drücken kannst. Und du kannst ähnlich wie du an deinem Equalizer unterschiedliche Presets einstellen kannst für Rockmusik, Popmusik und Klassik. So können wir unterschiedliche Presets für die einzelnen Hörprogramme hinterlegen und können noch zusätzlich diese adaptiven Algorithmen, Geräuschreduktion, Richtmikrofon an- oder ausschalten. Und in der Praxis ist es halt, dass du dann zum Beispiel ein Musikprogramm, wenn du ins Theater gegangen bist, hast du halt auf diesen kleinen Knopf gedrückt und das Hörgerät ist ins zweite Programm gewechselt. Und du hast dann das Musikprogramm, wo eben kein adaptiver Algorithmus in deinem Opernsignal rumrudert. Mittlerweile sind Hörgeräte so weit, dass sie selbstständig die Umgebung beobachten und so eine vereinfachte Klassifikation vornehmen, um zu unterscheiden zwischen: Was ist eine ruhige Situation? Was ist Sprache in Ruhe? Sprache in Störgeräusch? Störgeräusch oder Musik? Und in Abhängigkeit von der gewählten Klasse – so nennen wir das – schaltet das Hörgerät dann selbstständig bestimmte Algorithmen an oder aus oder macht eben diese Equalizer-Funktion und sagt: Bei Musik hebe ich die Tiefen und die Höhen noch ein bisschen an, damit es brillanter klingt.
[00:49:54] Aber sind das dann alles verschiedene voreingestellte Modi oder Programme, zwischen denen das Hörgerät selbstständig wählt oder optimiert das auch die Einstellungen innerhalb eines Programms? Stichwort: Selbstlernendes Hörgerät. Gibt es sowas auch schon?
[00:50:07] Gibt es auch schon in den Anfängen. Wir machen hier viel Tests mit irgendwelchen schwerhörigen Versuchspersonen, passen denen unsere Geräte an und versuchen herauszufinden: Was möchten die eigentlich ganz gerne haben? Also zum einen empirische Daten, zum anderen schauen wir eben in der Wissenschaft: Was kann man sich da rauslesen? Und von daher geben wir immer so eine – ich nenne es mal – smarte Voreinstellung, die geben wir mit. Wie das Gerät dann letzten Endes beim Schwerhörigen selber funktioniert, liegt entweder in der Hand des anpassenden Hörgeräteakustikers, der das dann quasi mit einer Anpasssoftware individuell einstellen kann. Oder aber beim Schwerhörigen selber. Und der hat die Möglichkeit zum Beispiel über ein kleines Lautstärkerädchen auf dem Gerät oder über eine Fernbedienung die Lautstärke oder teilweise auch den Klang des Gerätes anzupassen. Heller oder dunkler.
[00:50:47] Aber eine iPhone-Anwendung zur Einstellung eines Hörgeräts gibt es noch nicht, oder?
[00:50:51] Da arbeiten wir noch dran.
[00:50:52] Kommt aber noch, oder? Ich meine, ernsthaft. Ich hab einen Computer in der Hand, das wär doch naheliegend.
[00:50:56] Ja natürlich. Vor allen Dingen: Warum würdest du denn ein zweites Gerät mit dir rumtragen wollen, wenn du sowieso schon eins hast, was eigentlich alles kann und quasi frei programmierbar ist? Was uns fehlt, ist halt die Bluetooth-Verbindung von deinem iPhone zum Hörgerät.
[00:51:09] Kann man ja machen.
[00:51:10] Naja, Bluetooth passt im Moment noch nicht in Hörgeräte rein, braucht unglaublich viel Strom, du brauchst einen Quarz dafür.
[00:51:15] Ja dann halt irgendwie Zigbee oder irgend sowas. Egal.
[00:51:17] Egal, aber dahin wird es gehen. Also, Lernen können Hörgeräte schon, um das abzuschließen. Das machen die auch für unterschiedliche Situationen, da kannst du unterschiedliche Sachen lernen. Und der Trend geht natürlich mehr und mehr dahin, dass Hörgeräte sich immer mehr mit der Außenwelt vernetzen und du zum Beispiel mit deinem iPhone irgendwas machen kannst, oder irgendwelche Wireless Daten zuhause aus deinem Home-Netzwerk…jemand liest dir abends dein E-Paper vor.
[00:51:37] Ich frag mich ja, wie lange es noch dauert, bis Menschen Hörgeräte nicht mehr einsetzen, weil sie krank sind, sondern weil es einfach komfortabler ist. Das wird ja kommen irgendwann, oder?
[00:51:48] Nichts anderes gab es ja bei der Brille auch. Vor…was weiß ich, ich war noch ganz klein, aber…20, 30 Jahren waren Brillen überhaupt nicht modern. Kein Mensch wollte Brillen haben. Und irgendwann gab es die Sonnenbrille. Da war es schick Sonnenbrillen zu tragen und Brillen waren irgendwann einfach so schick. Dann haben Menschen Brillen getragen mit Glasbausteinen. Hörgeräte waren in der Vergangenheit sehr stark stigmatisiert. Keiner wollte es haben, auch Leute, die schlecht gehört haben. Und mittlerweile wandelt sich das. Das scheint nicht so schnell zu gehen wie bei der Brille. Mittlerweile sind Hörgeräte durchaus akzeptierter. Sie sehen auch nicht mehr so aus wie kleine beigefarbene Bananen, die man hinterm Ohr hat. Es wandelt sich so langsam, aber irgendwann wird wahrscheinlich dieser Punkt kommen, wo Hörgeräte auch Schwerhörigkeiten ausgleichen können, aber wo es so kleine Kommunikatoren sind. Dein wireless Headset fürs iPhone.
[00:52:29] Eben. Ich hab mir schon oft gedacht, ich müsste mir die blöden Kopfhörer direkt ins Hirn implantieren. Aber okay. Kann man das sagen, dass üblicherweise ein Patient auf beiden Ohren geschädigt ist und deshalb üblicherweise zwei Hörgeräte trägt?
[00:52:41] Als Daumenregel kannst du das schon sagen. Die Mehrheit der Hörgeräteträgern ist auf beiden Ohren geschädigt. Häufig sind diese Hörschädigungen symmetrisch und günstig ist es dann, damit du eben den vollen Vorteil von deinen Hörgeräten hast, auch zwei zu tragen und nicht nur eins. Es gibt so ein paar…
[00:52:56] Ja, geht ja nicht anders, oder? Du kannst ja nicht mit einem Hörgerät beide Ohren beschallen.
[00:53:00] Nein, das geht physikalisch nicht. Es gibt Menschen, die sagen: Ich möchte mir aber nicht zwei Ohren zustecken oder sowas oder ich möchte nicht so viel Geld ausgeben. Die kaufen sich dann nur eins.
[00:53:07] Die hören halt dann auf einem Ohr vernünftig.
[00:53:09] Genau, die hören dann nur auf einem Ohr vernünftig und haben natürlich wahrscheinlich vielfach andere Probleme. Sprechen im Störgeräusch, Lokalisation ist nicht so prima. Das kommt durchaus vor.
[00:53:17] Müssen die beiden Hörgeräte, wenn man denn dann zwei hat, sich irgendwie koordinieren? Reden die miteinander?
[00:53:22] Auch eine ganz witzige Sache. Machen Hörgeräte mittlerweile. Was gut funktioniert, ist so Basisdaten über so eine kleine Funkverbindung auszutauschen. Wenn du zum Beispiel bei dem einen Hörgerät rechts auf dein zweites Hörprogramm drückst, weil du ganz gerne Musik hören möchtest, dann schaltet das andere Gerät mit um. Oder wenn du feststellst: Mensch, es ist ein bisschen leise, dann gehst du her und machst das ein bisschen lauter und dann geht das andere Gerät quasi gleich mit lauter. Da musst du nicht erst überlegen: Rechts hab ich es ein kleines Stück lauter gemacht, zwei Tipps und dann muss ich links auch zwei Tipps lauter machen. Das ist eher so ein Komfort-Feature, damit du eben die Bedienung vereinfachst. Aber das ist für unser typisches Klientel, also Menschen jenseits der 60, durchaus eine große Hürde, wenn die mit beiden Händen am Hörgerät rumfummeln müssen. Für die ist das eine große Hilfe, wenn das einfacher wird.
[00:54:04] Was für ein Funk wird da eingesetzt?
[00:54:06] Das ist ein magnetisches Nahfeld, was wir nutzen.
[00:54:08] Ah, okay. Das geht dann auch wirklich nur ein paar zig Zentimeter?
[00:54:11] Ja, ja, also nach 30, 40 Zentimetern ist Schluss. So weit senden Hörgeräte nicht mehr.
[00:54:17] Die Köpfe haben dann Schwierigkeiten.
[00:54:21] Diese Situationserkennung, von der ich eben mal gesprochen hab, die gleicht sich auch zwischen rechts und links ab. Das ist natürlich schwer für so ein kleines Hörgerät, die Situation zuverlässig zu erkennen. Und wenn wir dann hergehen und sagen: Naja gut, eigentlich haben wir ja zwei Hörgeräte am Kopf, die könnten sich ja abstimmen. Und auf Basis der jeweiligen Tasten sich für eine gemeinsame Situation entscheiden und dann auch synchron zum Beispiel umblenden zwischen zwei Frequenzgängen oder Richtmikrofon anschalten.
[00:54:41] Genau, das wär ja blöd, wenn das eine schon mal umschaltet und das andere nicht. Was steckt denn in so einem Hörgerät drin? Du hast schon gesagt, eine beigefarbene Banane. Jetzt keine Banane mehr, sieht aus wie ein Apfel? Oder nicht mehr beigefarben? Oder was hat sich geändert?
[00:54:56] Die meisten Geräte sind nicht mehr beigefarben. Es gibt durchaus ganz schicke Geräte, die haben durchaus poppige oder elegante Farben. Die sind rot oder blau…
[00:55:01] Ach so, dass man es auch gar nicht mehr versucht zu verstecken?
[00:55:03] Ja genau, man kann das durchaus auch tragen. Teilweise sind sie silber. Vielfach werden Hörgeräte per Gehäuse mittlerweile so eingefärbt, wie die Haarfarbe ist, also man macht das einfach irgendwie braun, grau, silber, was auch immer man da so an Haarfarben findet.
[00:55:16] Und was steckt dann da drin an Hardware, Elektronik, Software? Kannst du das von der Systemperspektive ein bisschen beschreiben?
[00:55:24] Das größte Ding, was drin steckt, ist erstmal eine Batterie. Die hält so ungefähr zwei Wochen, danach ist sie leer und man muss sie austauschen. Zusätzlich – wir haben schon über Mikrofone gesprochen – haben die meisten Hörgeräte zwei Mikrofone, vereinzelt gibt es auch welche mit einem Mikrofon, damit wir eben dieses Richtmikrofon rechnen können. Und wir haben so einen kleinen Lautsprecher, den wir Receiver nennen, Hörer, der nachher den Schall wieder abstrahlt. Das sind so die großen Komponenten. Dazwischen hast du eine Leiterplatte, auf dieser Leiterplatte sitzt natürlich unser kleiner Chip, also das eigentliche Herz des Geräts, mit dem der Hörverlust-Ausgleich gemacht wird, in dem auch die adaptiven Signalverarbeitungsalgorithmen rumrudern.
[00:55:57] Das ist alles Hardware dann, oder läuft da Software drauf?
[00:55:59] Das ist unterschiedlich von Hersteller zu Hersteller. Es gibt Hersteller, die nutzen teilweise ASICs, also fest verdrahtete Chips. Andere nutzen frei programmierbare Plattformen und programmieren ihre Algorithmen darauf. Es ist im Wesentlichen eine Kostenfrage. Wenn du sehr hohe Stückzahlen hast, dann lohnt es sich wirklich, Algorithmen fest zu verdrahten, weil du die Dinger günstiger programmieren oder günstig herstellen kannst. Wenn du geringere Stückzahlen hast, lohnt es sich eher, die Dinger nicht selbst herzustellen, sondern zu sagen: Ich programmier da was drauf.
[00:56:27] Aber die müssen ja alle – Hard- oder Software – in gewissen Grenzen zumindest konfigurierbar sein, um genau diese Ausgleichskurve da rein zu bringen.
[00:56:36] Ja, genau.
[00:56:37] Und wie stellt man sich das vor? Ich gehe zum Hördoktor, der sagt: „Hören Sie mal, da Kopfhörer“, man stellt fest: Ich höre schlecht, er verkauft mir ein Hörgerät. Doktor verkauft mir kein Hörgerät. Ich kauf mir ein Hörgerät, je mehr Geld, desto cool und dann geh ich damit zum Akustiker und der konfiguriert das dann, oder?
[00:56:54] Der Arzt sagt dir erstmal nur: „Du kannst schlecht hören“, und stellt dir ein Rezept aus. Mit diesem Rezept gehst du hier in Deutschland zu einem Hörgeräteakustiker deiner Wahl, lässt dich da beraten, der stellt dir drei Hörgeräte zur Verfügung…oder muss dir drei verschiedene Geräte anbieten, in die du mal reinhören kannst. Und der ist derjenige, der das Gerät dann wirklich auf deinen Hörverlust einstellt. Also der macht nochmal eine ergänzende diagnostische Messung, um herauszufinden: Wie sieht dein Hörverlust eigentlich aus? Dann gibt es von den Hörgeräteherstellern jeweils eine Anpasssoftware, mit der er das Gerät eben konfigurieren kann in diesen von dir eben angesprochenen Einstellungsbereichen. Blödes Wort. Parametern. Genau, es gibt so einen Parameterraum, in dem er sich bewegen kann. Und der Clou ist eben: Auf Basis dieses diagnostischen Tests am Anfang erstmal so einen möglichst guten Startpunkt zu finden, wo du erstmal sagst: „Okay, es klingt wie ein Hörgerät, aber es klingt ganz gut, es macht nicht so viel falsch. Wenn der Mensch gegenüber mit mir spricht, dann klingt es ganz normal. Meine eigene Stimme klingt auch ganz normal und es ist nicht zu laut und nicht zu leise.“ Beim Hörgeräteakustiker sitzt du in so einer – die nennen das – Anpasskabine. Das ist so ein schallarmer Raum, mit Teppich ausgekleidet und da klingt natürlich alles sehr künstlich und meist bietet man dem Kunden dann an: „Nimm das Gerät einfach mal für eine Woche oder zwei Wochen mit, probier es im Alltag aus und sag mir dann: Was hat dir da gut gefallen, was hat dir nicht so gut gefallen.“
[00:58:10] Aber nochmal einen Schritt zurück. Diese Abbildung von Hörkurve, also quasi die „Ist-Situation“ auf die ideale Kompensation oder auf die erste Näherung, da gibt es Algorithmen dafür, die das automatisch ausrechnen?
[00:58:25] Ja, genau. Das ist das, was wir in dieser Abteilung hier machen. Audiologie. Wir überlegen uns halt: Wie sehen bestimmte Schädigungen aus? Wir schauen: Welche Muster treten besonders häufig auf? Und gehen dann her und berechnen sogenannte Zielverstärkungskurven. Es gibt unterschiedliche Philosophien, die man mit seiner Hörgeräteanpassung gerne verfolgen möchte. Du kannst zum Beispiel hergehen und sagen: Mein Ziel ist es, ich möchte ganz gern die Sprachverständlichkeit besonders hervorheben. Dann würde man wahrscheinlich nicht so viel Verstärkung in den tiefen Frequenzen vorschreiben, mehr Verstärkung in mittleren und hohen Frequenzen. Und damit kannst du durchaus – ich sag mal, nicht in Probleme laufen – aber damit machst du Abstriche immer dann, wenn du in eine laute Umgebungen kommst, weil dann eben auch die ganzen Nebengeräusche dementsprechend auch mit angehoben werden. Es gibt andere Anpassformen, da kommen dann sogenannte Zielkurven heraus, die sind insgesamt ein bisschen flacher, damit das Gerät erstmal spontan akzeptiert wird und du sagst: „Das ist was, das nehme ich erstmal mit und ich lerne mich dann dahin, oder mit Unterstützung meines Hörgeräteakustikers komme ich im Laufe der Zeit zu meiner Ziel- oder Finaleinstellung.“
[00:59:22] Ich muss dann aber jedes Mal wieder zu dem Akustiker, um an den Parametern rumzustellen? Oder kann ich das selber machen inzwischen? Gibt es da die Software für den Heim-PC, wo ich mein Hörgerät selber tunen kann?
[00:59:31] Nein, die Software für den Heim-PC gibt es noch nicht.
[00:59:34] Wird es das geben, oder hat die Lobby da was dagegen? Oder die Hörgeräteakustiker, die das machen?
[00:59:39] Ich bin mir nicht mal sicher, ob die Hörgeräteakustiker was dagegen hätten. Denn du zahlst denen letzten Endes nicht besonders viel Geld dafür, dass du da hin kommst und das Gerät nochmal anpassen lässt. Das ist ähnlich, wie wenn du zu deinem Optiker gehst und sagst: „Kannst du meine Brille mal reinigen?“ Da macht der Optiker das ganz gerne, aber er freut sich natürlich. „Hör mal, der kommt, wenn der eine neue Brille kauft, kommt der wieder zu mir, weil er vorher hierher kommt, weil ich ihn vorher so nett beraten habe.“ Liegt, denke ich, im Wesentlichen daran: Hörgeräte sind ein Medizinprodukt, da gibt es auch relativ strenge Gesetze, wo man schauen muss: Nicht jeder darf an so einem Hörgerät rumdrehen. Und von daher, Geräte einstellen wirklich, das macht nur der Hörgeräteakustiker. Und über zusätzliche Steller entweder auf dem Hörgerät oder auf der Fernbedienung hat der Benutzer dann selbst die Möglichkeit das nochmal so ein bisschen in gewissen Grenzen hinzulernen.
[01:00:20] Okay, das heißt also: Potenziell, perspektivisch, in Zukunft, wenn das dann alles mal mit dem iPhone kommuniziert, dann kann ich eben nicht nur meine Programme auswählen, sondern dann kann ich da möglicherweise weitergehende Tuning- und Eigenschaften im Rahmen dessen, was der Akustiker vorher mal vordefiniert hat, einstellen.
[01:00:35] Ja, genau.
[01:00:36] Okay, das macht Sinn.
[01:00:38] Oder es ändert sich was an der Gesetzgebung. Vielleicht wird es ja irgendwann mal so, dass man sagt: Mensch, Hörgeräte sind es wirklich eigentlich erst, wenn du besonders leistungsstarke Geräte hast. Dass man dann sagt: Da müssen wir den Bereich ein bisschen einschränken. Aber wenn es sogenannte Assistive Listening Devices oder irgend sowas, die du dir halt ins Ohr steckst, weil du damit leichter kommunizieren kannst und die Musik von deinem iPod kriegst, dann kann man wahrscheinlich schon mehr auslagern.
[01:01:01] Okay. Im Großen und Ganzen sind wir glaube ich durch. Oder haben wir irgendwas Wichtiges vergessen? Ich meine, wir wollen jetzt noch kurz in den schalltoten Raum und noch kurz ein bisschen über die Experimente und die Messungen reden. Aber so von der Theorie haben wir es glaube ich, oder?
[01:01:12] Ich denke schon, ja.
[01:01:13] Okay, dann drück ich hier mal Stopp.
[01:01:18] So, jetzt nehmen wir wieder auf. Wir stehen jetzt hier mehr oder weniger im Keller des Siemens Gebäudes und da stehen wir direkt vor dem schalltoten Raum. Und wir reden jetzt mal ein bisschen. Und während wir reden, laufen wir in den schalltoten Raum. Da müsstet ihr dann als Hörer in der Aufnahme auch einen Unterschied hören. Das ist natürlich every Audiomenschens dream hier. Erzähl doch mal ein bisschen, was ein schalltoter Raum ist und nebenher laufen wir da rein.
[01:01:43] Also, ein schalltoter Raum ist ein Raum, mit dem wir versuchen, das freie Schallfeld nachzubilden. Also irgendwas, wo du einerseits keinen Schall von außen hast. Deshalb ist der Raum quasi als Raum im Raum – Kapsel – aufgebaut.
[01:01:57] Also er steht auf irgendwelchen Federn auch?
[01:01:58] Genau, der steht auf irgendwelchen Federn. Und zusätzlich sollen keine Reflexionen von den Schallen, die wir hier erzeugen, wieder zurück kommen. Das hast du halt in allen anderen Räumen, oder wenn du draußen auf der Straße bist. Du erzeugst einen Schall, das wird irgendwo reflektiert, an der Hauswand oder an der Straße und dann kommt es wieder zurück. Und das will man hier nicht. Deshalb siehst du jetzt von hier drinnen überall so komische Schaumstoffdreiecke, so Zapfen, die eben den Schall schlucken. Und damit ist es ein schalltoter Raum.
[01:02:25] Das ist auch unangenehm leise hier drin fast schon. Weil das einfach total untypisch ist. Und wahrscheinlich versucht das Ohr dann auch wieder zu kompensieren und macht deshalb die Empfindlichkeit hoch und deshalb ist es alles total ungewohnt.
[01:02:36] Ja, genau.
[01:02:36] Was auch funktionieren müsste – ich probier das jetzt mal, ich weiß nicht, ob es stimmt – theoretisch, wenn ich hier drin jetzt lauter rede, dann dürfte davon relativ wenig…ja, ich merk schon, dass es ganz…also es ging gerade nicht mal in die Sättigung.
[01:02:48] Ja, das ist wahrscheinlich recht schwer, das hinzukriegen. Da tust du dir leichter, wenn du in deiner Küche stehst oder wahrscheinlich im Bad.
[01:02:53] Ja, klar, genau. Und was total cool ist, ich war ja schon in so ähnlichen Räumen, die dann irgendwelche Hobby-Audio-Studio-Fuzzis haben. Aber hier das Ganze ist schon deutlich dicker und stärker abgeschirmt und vor allem: Wir stehen hier auch nicht auf normalem Boden, sondern auf einem federnden Netz, das auch wiederum über solchen Dreiecken ist. Also wir sind rundum eingebettet.
[01:03:14] Ja, genau. Wir haben wirklich auch auf der Rückseite der Tür…nicht mal die Tür ist hier fest vorhanden, sondern diese Dreiecke sind an allen vier Wänden um uns herum, sie sind an der Decke und unter uns, unter diesem Netz, stehen sie eben auch und gucken uns an.
[01:03:25] Okay, was macht ihr hier? Wahrscheinlich keine Podcasts aufnehmen, üblicherweise.
[01:03:30] Üblicherweise nehmen wir hier keine Podcasts auf.
[01:03:32] Obwohl es sich echt gut eignet.
[01:03:33] Dann sehen wir uns in Zukunft öfter, wenn es dir hier gefällt. Diesen Raum benutzt unser – wir nennen das – Elektroakustisches Labor. Das sind die Kollegen, die aus diesen ganzen einzelnen Plastikteilen, den Lautsprechern, den Mikrofonen und den Chips die ersten Hörgeräte zusammen bauen. Die nutzen eben dieses Labor als Messraum, um das akustische Verhalten von Hörgeräten zu messen. Man kann die dazu entweder an so kleine Kuppler, also Adapter, zwischen Hörgerät und Mikrofon, die nennen wir Kuppler. Und man kann die entweder daran anschließen oder auf…
[01:04:06] Um kontrollierte Schalle einzuspielen?
[01:04:08] Genau.
[01:04:09] Warte mal, Stopp mal, Schritt zurück. Was wird denn hier genau gemessen? Also das Hörgerät hört ja was und produziert Schall. Und was wollt ihr hier messen in dem Raum?
[01:04:20] Was wir hier messen ist der Schall, den das Hörgerät produziert. Also neben all diesen Zapfen gibt es so einen kleinen Lautsprecher in der Wand, mit dem wir unsere Testsignale erzeugen. Das Hörgerät wird diesen Testsignalen ausgesetzt. Wir kennen das Testsignal und wir schauen uns dann immer an das Verhältnis von dem, was das Hörgerät abgegeben hat, also das Ausgangssignal des Hörgerätes im Verhältnis zu dem Testsignal.
[01:04:43] Und ich meine, jetzt könnte man als Theoretiker her kommen und sagen: „Eigentlich brauche ich da gar nicht die Schallstrecke mit, sondern ich mach das einfach, gucke mir einfach an das elektrische Ausgangssignal des Verstärkers.“ Das macht ihr natürlich sicherlich auch. Aber hier geht es wirklich um die End-to-End-Messung letztendlich?
[01:04:57] Ja, genau. Hier geht es nachher um die Messung des Hörgerätes als solches und der Grund, warum das Ganze bei diesem elektroakustischen Labor angesiedelt ist, ist: Ein Hörgerät ist relativ klein, es ist relativ filigran. Du hast ganz kleine Plastikteile und du kannst mit so einem Hörgerät nicht unendlich viel Verstärkung machen. Wenn du nur den Chip misst, kannst du wahrscheinlich unendlich viel Verstärkung machen. Oder so viele Parameter, wie du eben hast. Bei so einem Hörgerät – wir haben vorhin mal über akustische Rückkopplung gesprochen – gibt es irgendwann auch mechanische Rückkopplungen. Das heißt, das ganze Ding wird dadurch, dass du ja mit relativ großen Pegeln arbeitest…also es gibt Hörgeräte, die erzeugen bis zu 140 dB Ausgangsschalldruckpegel…das heißt, das ganze Ding wackelt, vibriert und verwindet sich ineinander. Und solche Sachen kannst du eben hier messen. Und auf Basis von akustischen Messungen kannst du nachher zurück schließen, es gibt besonders glatte Frequenzgänge, dann ist alles gut. Und wenn Frequenzgänge welliger, rippeliger werden, dann stellst du fest: Möglicherweise ist das Gerät jetzt schon eher an so einer Grenze, wo es mechanisch instabil wird und deshalb schaukelt sich das so auf.
[01:05:57] Das heißt, bei einem Hörgerät kommt es nicht nur auf das an, was drin steckt, sondern eben auch auf den Klangkörper, auf das Gehäuse, auch vielleicht auf die Struktur dieses…also, wo sind was für Verstrebungen drin?
[01:06:09] Genau, richtig. Also es gibt einen Rahmen mitten im Hörgerät, der das Gerät stabilisieren soll. Zwischendurch gibt es noch weitere Streben. Die versuchen wir natürlich möglichst klein zu arbeiten, damit das Gerät nachher möglichst klein wird. Aber gibt eben bestimmte Grenzen. Unendlich klein können wir nicht werden, weil wir eine gewisse Stabilität einfach brauchen. Also wirklich mechanische Stabilität an der Stelle.
[01:06:26] Das hätte ich nicht gedacht, das ist ja eigentlich erstaunlich. Nochmal ganz kurz zurück zu diesem Raum hier. Ihr habt also quasi einen Lautsprecher, der die Quelle, die Umgebung simuliert, habt dann das Hörgerät, messt auf der anderen Seite mit ganz sensitiven Mikrofonen – sehe ich jetzt hier keins, habt ihr wahrscheinlich so einen ganzen Mikrofon-Array, wo ihr dann quasi messt: Wie wird der Schall, den das Hörgerät erzeugt, das, was nachher in mein Ohr injiziert wird, wie wird das gemessen?
[01:06:50] Du hast meistens eins. Ich versuch die dir mal zu zeigen. Vor uns liegen so ein paar Kabel und hier liegen zum Beispiel Mikrofone rum, das sind Mikrofonadapter. Hier vorne hast du eins. Das sind so Viertelzoll-Mikrofone, die wir hier verwenden. Und da kommt eben so ein kleiner Adapter rauf, der quasi das Hörgerät mit diesem Mikrofon verbindet. Die nennen wir Kuppler.
[01:07:16] Ach jetzt, alles klar. Das heißt, das Hörgerät ist mit dem Mikrofon, das den Ausgang des Hörgeräts misst, direkt verbunden über so einen Kuppler. Und der schalltote Raum dient quasi zur Strukturierung und Kontrolle des Eingangs, also dessen, was das Hörgerät ins Mikrofon rein kriegt.
[01:07:34] Genau, richtig. Damit wir eben reproduzierbar messen können. Wir entwickeln ja ständig Hörgeräte. Wir nehmen das erste Hörgerät her, stellen fest: Mechanik ist möglicherweise nicht gut, das Gerät schaukelt sich auf. Dann wollen wir die gleiche Messung zwei Wochen später nochmal machen. Und damit wir dann die gleiche Umgebung wieder antreffen, haben wir diesen etwas merkwürdig anmutenden Raum.
[01:07:53] Das heißt, ihr habt dann aber auch gegebenenfalls hier auch mal zwei Lautsprecher drin. Einen, der das Sprechen simuliert und ein anderer irgendwo hinten, der den Umgebungslärm simuliert, um zu gucken, ob das Hörgerät entsprechend die Filterung auf die Reihe kriegt.
[01:08:03] Fast. Du bist ganz nah dran. Wir machen einen kleinen Trick. Wir versuchen es zu vermeiden hier möglichst viele Sachen reinzustellen. Ein weiterer Lautsprecher würde die akustischen Eigenschaften dieses Raums ändern. Was wir haben, um aber das trotzdem nachmessen zu können, ist so eine kleine Puppe, die wir auf so einen Ständer hier in dem Raum drauf stellen können. Und wir setzen dieser Puppe dann ein Hörgerät auf. Die Puppe hat quasi wieder so einen Kuppler und an diesem Kuppler messen wir wieder das Ausgangssignal des Hörgerätes. Und wir würden dann in dieser Messung hergehen und kontinuierlich ein Testsignal erzeugen und diese Puppe drehen. Und darüber erhalten wir am Ende ein sogenanntes Polar-Diagramm. Das heißt pro Richtung den Ausgang des Hörgerätes. Und wenn man das Ganze nachher dann so als Kreis darstellt, sieht man wieder, Richtmikrofon funktioniert zum Beispiel. Von vorne hat man eine sehr hohe Empfindlichkeit und von hinten eine sehr geringe Empfindlichkeit.
[01:08:56] Alles klar, okay. Cool, wunderbar. Haben wir noch irgendwas vergessen hier in diesem Raum?
[01:09:02] Man kann sowas noch dreidimensional machen. Dann gehen wir wirklich her und stellen noch so einen Bogen hier auf, also stellen wirklich noch zusätzliche Sachen rein. Und dann kann man diese Richtmikrofone auch dreidimensional vermessen. Dann sieht eigentlich das Ergebnis aus wie so ein Fisch. Man hört recht gut nach vorne und relativ wenig nach hinten um festzustellen, dass es eben nicht nur in der Horizontalebene funktioniert, sondern auch Störgeräusche von hinten oben oder hinten unten werden unterdrückt. Aber dann hast du wirklich schon einen sehr detaillierten Einblick.
[01:09:26] Aber dieses Ding habe ich draußen rumstehen sehen und das war meine Frage, die mich sozusagen auf die Frage gebracht hat: Gibt es hier da diesen Mikrofon-Array drum herum? Aber den gibt es dann eben für genau diesen Zweck.
[01:09:36] Genau. Und das, wo wir uns missverstanden haben: Es sind eben Lautsprecher, die da drauf montiert sind, um dann eben aus unterschiedlichen…naja, Horizont, oder…wie ist das englische Wort?…Vertikalrichtung? Elevation?
[01:09:50] Ach Elevation und Azimut?
[01:09:51] Genau. Um das in Elevation und Azimut zu variieren. Dafür ist dieses Ding da.
[01:09:55] Alles klar. Gut, wunderbar. Ich denke, wir sind am Ende. Ich bedanke mich furchtbar herzlich, wie ich immer zu sagen pflege, fürs Mitmachen. Ich fand es echt gut und ich hoffe, es hat dir Spaß gemacht.
[01:10:10] Ja, ich fand es total interessant. Also zu erleben, wie ein Podcast entsteht. Für mich sehr spannend.
[01:10:15] Naja, bis jetzt war es ja nur die Aufnahme. Du erwartest jetzt wahrscheinlich, dass da hinterher sehr viel anders sein wird. Ich glaub, da werde ich dich enttäuschen. Du hast viel zu wenig gestottert und zu wenig „Ähs“ produziert. Das wird sich nicht arg ändern.
[01:10:27] Ich bin mal sehr gespannt, was daraus wird. Ich freu mich drauf.
[01:10:30] Danke fürs Mitmachen!
[01:10:30] Gern geschehen!