Acourate Audio Toolbox Script
Transcription
Acourate Audio Toolbox Script
Acourate Audio Toolbox Script von uli.brueggemann Edit: Wir haben dieses Thema aus der Diskussion des Audiovolvers abgespalten. Acourate ist das "Herz" des Audiovolvers und als Software-Toolbox auch einzeln erhältlich. Hallo zusammen, bin durch Fortepianus auf das Forum und den Thread aufmerksam geworden. Ich finde es prima, dass die Raumkorrektur hier so eine gute Resonanz erfährt. Erlaubt mir einige Bemerkungen zu machen (ich bitte dabei um Nachsicht, dass ich auf Acourate hinweise, es ist jedoch NICHT meine Absicht hier eine Werbeveranstaltung draus zu machen): • • • Ich bin gern bereit konkrete Fragen zu beantworten. Es geistern viele Meinungen zum Thema Raumkorrektur herum, häufig nichts Fundiertes. Falls da mal ein Vergleich oder Wettbewerb stattfinden sollte wie mehrfach angesprochen: ich hab kein Problem mich dem zu stellen. Das Programm AcourateLSR auf der Webseite www.acourate.com erlaubt es einen Logsweep einfach aufzunehmen (na ja, eine vernünftige Soundkarte und ein gutes Mikro am besten mit Vorverstärker werden schon gebraucht, sollte aber so mancher Audiohobbyist besitzen). Für die Karte braucht es einen ASIO-Treiber (evtl. tut es auch ASIO4All). Mit den resultierenden Pulsantworten kann ich dann Filter erstellen. Und dann so ein, zwei Musikfiles (Standard wav, 16/44) damit convolven und zuschicken. Das ermöglicht dann einen Hörvergleich mit/ohne Raumkorrektur ohne irgendwelche andere Hardware. Der Dienst kostet nix. Vielleicht ein erster Beitrag zur Korrektur über 100 Hz, 300 Hz oder 500 Hz. Oder einfach im hohen Frequenzbereich: Raumkorrektur ist ein Kompromiss. Es wird nicht 100% korrigiert, weil man nicht den Hörer am Platz festnagelt. Also wird Glättung betrieben. Oder eine frequenzabhängige Fensterung im Zeitbereich (Acourate). Es zeigt sich dabei, dass die Frequenzgänge im gesamten Frequenzbereich nicht ideal glatt sind und dass sie auch "verbogen" verlaufen. Das Ohr ist nun nicht in der Lage eine "Kurzwellige" Welligkeit des Frequenzganges z.B. bei 2 kHz wahrzunehmen. Das Auf und Ab ist hier praktisch unhörbar. Gottseidank, wir würden verrückt, weil sich durch den Raum bewegen ein ständiges Ändern des Frequenzganges bewirkt. Es ist aber nun etwas anderes wenn man sich beispielsweise eine Anhebung von 1 kHz ansteigend zu 2 kHz und danach wieder abfallend bis 4 kHz vorstellt. Kennt jeder, der sich einmal mit dem Thema Klangregelung oder Equalizing beschäftigt. Die Auswertung der Messung zeigt im allgemeinen nun wunderbar solche verbogenen Frequenzgänge. Und siehe da, eine Korrektur wird auch hier sinnvoll. Ein trivialer Zusammenhang, jedoch von einigen nicht verstanden, die über das Auf und Ab im Frequenzgang sinnieren und daß das Ohr nichts wahrnimmt und man es deshalb nicht benötigt... Klare Lage: Korrektur über den gesamten Frequenzgang. Und falls sich herausstellt dass der Frequenzgang wunderbar ist wird auch automatisch nichts korrigiert. Ansonsten weiter gute Diskussionen. Uli Hallo Uli, schön, dass du hier mal vorbeischaust und damit auch von mir ein herzliches Willkommen. Ich muss mich vorab als "Skeptiker" von Raumkorrekturen oberhalb von 500 Hz (ein wenig abhängig vom Raumvolumen) outen. Warum, habe ich in dem Ursprungsthema versucht zu erläutern. Aber dann hier gern noch mal. Auch sei erwähnt, dass ich solch eine Korrektur, wie sie Acourate vornimmt, noch nicht gehört habe. Ich denke, ich darf behaupten, dass eine Korrektur der Betriebsschallpegelkurve den Eigenschaften des menschlichen Gehörs (respektive Psychoakustik) folgen sollte. Und ich bin mir sicher, dass Überlegungen diesbezüglich auch in die Entwicklung von Acourate eingeflossen sind. Mich interessiert nun die Herangehensweise zur Erstellung der schlussendlichen Filter. Nach meinen Recherchen ist das Gehör in der Lage nach 1-2 ms (bei 1 kHz) Reflexionen vom Direktschall zu unterscheiden. Spätere Reflexionen haben mehr oder weniger Einfluss auf die Abbildung des eigentlichen Hörereignis, auch in Abhängigkeit der Richtung der Reflexion, es findet wohl aber keine Summenlokalisation mehr statt. Wobei seitliche Reflexionen wohl dem (subjektiven) Empfinden div. Testpersonen eher zuträglich waren, als Reflexionen aus der Medianebene. Seitliche Reflexionen können die Stereoabbildung ein wenig verbreitern und sorgen für eine "bessere" Räumlichkeit. Es scheint also, dass nicht nur die Laufzeit und Intensität von Reflexionen zu betrachten sind, sondern auch die Richtung, aus der sie kommen. Davon ab ist anscheinend auch das Spektrum der Reflexionen für die Auswirkung auf das (eigentliche) Hörereignis entscheidend. Unterscheidet sich die Reflexion spektral von dem Originalsignal, wird die Wahrscheinlichkeit der Hörbarkeit erhöht. Sprich Lautsprecher mit ungleichmäßigem Abstrahlverhalten verursachen tendenziell eher hörbare Reflexionen, als Lautsprecher mit einem gleichmäßigen Abstrahlverhalten. Das gleiche gilt für ungleichmäßige Absorption. Was die Veränderung des Amplitudengangs eines Lautsprechers (auf Achse) auf das Abstrahlverhalten hat, entzieht sich meiner Kenntnis. Vielleicht kann da ja jemand aushelfen...? Um das mal an einem praktischen Beispiel zu verdeutlichen: In meinem (sehr kleinen) Raum kann ich bei einem Hör- bzw Messabstand von 1,60 m ca. 3 ms einigermaßen reflexionsfrei messen. Amplitudengang ungefenstert 1/24 Glättung: Betrachtet man nur die ersten 3 ms der Impulsantwort, bekommt man folgendes zu sehen: von uli.brueggemann - Mit AcourateLSR kann man nicht allzuviel spielen. Natürlich kann man den Aufnahmevorgang selbst testen. Das Ergebnis wird jedoch nicht allgemein verwendbar gespeichert. Dafür gibt es schon einiges an anderer Logsweep-Software. Wie bereits geschildert kann ich selbst das Ergebnis verarbeiten, was ich ja auch angeboten habe. - Psychoakustik: ja, da verwende ich ein interessantes Prinzip. Eine Fourier-Analyse einer Pulsantwort zeigt den Frequenzgang im eingeschwungenen Zustand ! Musik ist aber kein eingeschwungener Zustand. Demzufolge ist das schlichte Glätten eines Frequenzgangs z.B. per 1/n Oktavanalyse nicht wirklich richtig. Acourate macht da bei der Berechnung einige zig-tausend! Convolutions mit Sinus-Bursts (und Pulsantwort) und schaut sich an was da wirklich im Transientenbereich passiert. - Zeitfenster: ein Puls der Länge 10 ms erlaubt keine Aussage zu Frequenzen unterhalb von 100 Hz. Für 1 Hz sollte man schon 1 Sekunde Pulslänge haben. Eigentlich sind mindestens zwei Frequenzzyklen erforderlich. Also eher 2 sek oder mehr für 1 Hz. Problem daraus: So ein breites Fenster enthält aber nun z.B. 2000 und mehr Schwingungen mit 1 kHz. Oder 20000 ... bei 10 kHz. Lösung: die Auswertung des Pulses muss per frequenzabhängiger Fensterbreite erfolgen. Was die meisten Audioprogramme seltsamerweise nicht tun. Das FDW (frequency dependant windowing) betrachtet also eine einstellbare Anzahl von Zyklen je Frequenz. Das ergibt andere Kurven und Frequenzgänge - 1/n Oktavglättung: Ist ein Kompromiss aus der Zeit als man noch nicht richtig rechnen konnte.Nix gegen die Altvorderen. Aber heute erlaubt die Rechnertechnik doch andere Algorithmen. Das ergibt scheinbar ähnliche Frequenzgänge. Aber eben doch nicht diesselben. - Reflektionsfreie Messung: 3 ms ohne Reflektion erlaubt im Prinzip nur Aussagen zum Direktschall bis 300 Hz. Ein 30 Hz Tiefton hat schon eine Zykluszeit von 33 ms. Vernünftigerweise 2 Zyklen Messzeit ist mindestens 66 ms. Und wenn man evtl. das Einschwingen etc. mit einbeziehen will dann denn z.B. 5 Zyklen = 165 ms. Der Schall flitzt dabei schon 56 m, also im normalen Hörraum einige Male hin und her, was denn auch ggf. Überhöhungen und Auslöschungen verursacht. Schlussfolgerung: Es braucht immer eine vernünftige Pulsdauer. Und dabei gibt es immer Reflektionen. Preisfrage: wenn das Ohr nun im Raum einen Basston hört, gibt es den dann ohne Reflektionen? Nein. Definitiv nicht. von uli.brueggemann asb hat geschrieben:Würde in meinem Fall eine Korrektur erfolgen? Wenn ja, warum? Es gibt da so einiges dazu zu erzählen, allerdings ist nicht viel Info vorhanden (keine Pulsantwort, nur Frequenzgang und nur bis hinunter zu 500 Hz). Klar ersichtlich ist, dass das bloße Abscheiden bei 3 ms bewirkt dass der Frequenzgang im oberen Bereich weiter zappelt, während er nach unten hin immer glatter wird. Diese Art der Fensterung nimmt schlichtweg Information weg. Lösung: frequenzabhängige Fensterbreite. Der Frequenzgang selbst hat eine Langwelligkeit. Eine Anhebung der Delle um 2 kHz auf die -10 dB ist sicher hörbar (analog zum BBC-Dip bei 3 kHz mag der Klang aber mit der Delle angenehm sein, ist allerdings nicht "richtig" im Sinn der Wortdefinition). Der ungefensterte Frequenzgang mit 1/24 Oktav-Glättung vermittelt natürlich über die Glättung alle hohen Frequenzen. Das bedeutet im Prinzip dass die Verwendung dieses Frequenzganges ALLE hochfrequenten Schwingungen die über die Pulsdauer anfallen, also auch Reflektionen etc. mit einbezieht. Ein daraus entstehendes Korrekturfilter verbiegt dabei evtl. einen guten Direktschall. Ansonsten: nur das Schielen auf den Frequenzgang ist nicht seligmachend. Der Zeitbereich ist ebenso wichtig. Eine reine Frequenzgangkorrektur ist nur minimalphasig und korrigiert keine Phasen. Bitte nicht argumentieren dass man Phasendrehungen nicht hört. Bei einem Mono-Lautsprecher nicht. Was ist aber wenn man Stereo lauscht und jeder Kanal hat andere Phasenlagen? Und vielleicht die wichtige wirklich interessierende Aussage: der Frequenzgang sieht trotz allem nicht übel aus. Es bräuchte nicht notwendigerweise eine Korrektur. Sofern die Pulsantwort/Sprungantwort dazu auch passend ausschaut. Uli uli.brueggemann „Infos über den Hardwareaufbau interessieren (vielleicht auch auf Deiner Homepage). Vielleicht kannst Du auch einen Referenzaufbau empfehlen?“ Ein schwieriges Thema. Weil vielfältigste Möglichkeiten. Und ich kenn ja typischerweise den Rest des Systems nicht. Vielleicht stellt Fortepianus einmal vor was er gerade so zusammengestellt hat. VIA EPIA 1GHz mainboard, RAM, M-Audio Delta Audiophile 2496 Soundkarte, Gehäuse und als Startpunkt meine "BruteFIR on a memorystick"-Lösung (http://www.acourate.com/Audiovero_Kerne ... 8-rt12.zip) Da ich die Soundkarte zum ersten Mal in dieser Konfiguration erlebt habe gehört da das Abenteuer des Einbindens mit dazu. Ist wohl geschafft. Merke: vielfältigste Möglichkeiten. Diese Konfiguration ist ok für z.B. spdif rein und raus. Oder stereo analog rein und raus. Für aktive Systeme mit Frequenzweichen schon schwieriger (gerade noch spdif raus für LS und analog raus für Subwoofer). Da gäbe es dann z.B. die Delta 1010LT. Aber es braucht evtl. auch mehr Rechenleistung, z.B. VIA EPIA EN12000. Oder einen Core2Duo (Gehäuse mit Passivkühlung, z.B. HFX). Andere wollen aber mit Windows Media Player spielen. Dazu gibt es dann das Convolver-Plugin von John Pavel. Oder Foobar mit Plugin. Für die Squeezebox gibt es ein Serverplugin Inguz von Hugh Pyle. Manche wollen auch mit VST Host. Oder mit Console. Oder mit Voxengo Pristine Space. Merke: vielfältigste Möglichkeiten. Theoretisch ginge es auch mit Acourate offline wav-Dateien zu filtern und auf einem Server abzulegen. Wird dann aber schwierig wenn man so ein Terabyte wieder neu filtern muss nur weil die bessere Hälte die Couch woanders haben möchte Wenn Fortepianus sein Projekt am Rennen hat kann ich gern mal mit ihm zusammen eine möglichst Plug&Pray Konfiguration zusammenstellen. Wenn Du dann aber doch lieber mit VFD-Display und Remote Control haben möchtest? Man könnte auch einen Mediaserver draus machen .... Merke: vielfältigste Möglichkeiten. Und für diejenigen, welche lieber was Fertiges kaufen möchten kann ich nur auf definiteAudio oder Audiodata hinweisen. Meine eigenen Versuche Hardware anzubieten haben nicht besonders geklappt. Dem einen war das Gehäuse nicht audiophil genug, der andere hatte Sonderausbauwünsche, dem Dritten war das Ganze zu preiswert (kann doch dann nichts Gescheites sein) und dem Vierten war das Ganze zu teuer (wieso kostet das überhaupt, da nehm ich doch was aus meinem PC-Bastelvorrat oder bestell per Web bei Klüngel & Tuck). Leider hab ich auch keine Uni oder andere Forschungsstellen als Sponsor wie das bei Audyssey und Trinnov der Fall war. Gert Geduld, Leute, die Hardware ist zusammengenagelt und bootet, die Soundkarte wird gerade frisiert ,die Software von Uli habe ich, aber die ASIO-fähige Soundkarte, die ich zum Messen gekauft hatte, lief nicht unter Vista, was auf meinem Notebook drauf ist (soll ich das Hemd ausziehen, damit man die Striemen besser sieht, Sigi?). Konnte ich zurückgeben, habe dann rausgefunden, dass die Terratec Phase 26 USB gut wäre, ist aber überall ausverkauft , habe jetzt in der Bucht eine gebrauchte erstanden, da warte ich aber noch drauf. Wenn die jemals kommt und ich dann auch noch gelernt habe, mit Ulis Software umzugehen und die FIR-Filter in die Dose geladen sind und ich auch noch ein bisschen was gehört habe und vielleicht noch verschiedene Filter und Zielkurven ausprobiert habe, stell ich das alles gerne vor. Versprochen. Fortepianus hat geschrieben:...aber die ASIO-fähige Soundkarte, die ich zum Messen gekauft hatte, lief nicht unter Vista, was auf meinem Notebook drauf ist (soll ich das Hemd ausziehen, damit man die Striemen besser sieht, Sigi?). Hallo Gert, das ist keinesfalls notwendig, Du bist ja auf besten Weg mit Deinem Projekt VIA EPIA 1GHz mainboard, RAM, M-Audio Delta Audiophile 2496 Soundkarte, Gehäuse und als Startpunkt meine "BruteFIR on a memorystick"-Lösung (http://www.acourate.com/Audiovero_Kerne ... 8-rt12.zip) tief in Linux einzutauchen. Beim Support von Soundkarten kann Linux allerdings sehr mimosenhaft reagieren, da muss man vor dem Kauf ebenfalls sehr aufpassen und prüfen, ob es geeignete Treiber gibt. Kienberg hat geschrieben:Beim Support von Soundkarten kann Linux allerdings sehr mimosenhaft reagieren, da muss man vor dem Kauf ebenfalls sehr aufpassen und prüfen, ob es geeignete Treiber gibt. und selbst wenn es Treiber gibt, kommt die Einstellung der Soundkarte einem Stochern im Nebel gleich - Uli hat mich netterweise in dieser Waschküchenumgebung an die Hand genommen. Die Delta 2496 läuft jetzt einwandfrei. So Freunde, die Plackerei hat ein Ende. Ich hatte ja nicht mal mehr Zeit, hier im Forum mitzuschreiben - mich erreichten dann emails wie z. B. von Winfried, der mich im wohlverdienten Osterurlaub wähnte, weil man gar nichts mehr von mir höre. Nein nein nein ich habe diese FIR-Kiste zusammen genagelt und mit der Software rumgemacht und gemessen und gemessen und Uli hat sich die paar Kröten für seine Software ganz bitter verdient mit einer Spezialhotline für mich Linuxanfänger, die selbst über Ostern geöffnet hatte. Vielen vielen Dank für die Hilfe, Uli! Dabei ist mir wohl die Forenarbeit etwas entglitten, denn aus dem Augenwinkel habe ich lesen dürfen, dass Kai sich für 2 Wochen bei mir einquartieren will mit seinen MB, ich im Anschluss drei Wochen Urlaub nehmen soll für irgendein CD-Laufwerksprojekt und was weiß ich was mir noch alles entgangen ist. Schluss damit, ich bin wieder auf dem Plan. Die FIR-Kiste spielt. Ich werde darüber wohl am besten in zwei Beiträgen berichten: 1. Wie baut man so eine Kiste und wie sieht sie aus 2. Wie klingt das Punkt 1 kommt in Kürze in meinem Anlagen-Vorstellungs-Thread. Punkt 2: Der Grund für die ganze Aktion war ja die Fragestellung, ob die absolute Zeitrichtigkeit von Relevanz ist. Und zwar bei einer Anlage, die, dank Subtraktivweichen, immerhin schon mit einer Phasenstarrheit der Wege zueinander aufwarten kann - was ja im Vergleich zu den Standard-Linkwitzfiltern eine klare Verbesserung der räumlichen Darstellung erbrachte. Deshalb testete ich drei verschiedene Einstellungen: a) Unkorrigiert b) Amplituden-Frequenzgang auf Zielkurve, aber minimalphasig korrigiert (guter FG am Hörplatz, aber keine Zeitrichtigkeit) c) FG wie bei b und Sprungantwort auf absolute Zeitrichtigkeit korrigiert Zunächst mal war Uli angetan von meinen Messkurven: Man sieht nämlich nicht jeden Tag einen Messschrieb, der bei 10Hz beginnt und dort unten bereits unkorrigiert die volle Amplitude zeigt. Als ich Uli - fishing for compliments - mich selbst beweihräuchernd darauf hinwies, kam als Antwort, beeindruckender als den Bass fände er die extrem niedrigen akustischen Verzerrungswerte. Schluss mit dem Eigenlob, lasst mich zusammenfassen, die Anlage bietet eine gute Basis für ein solches Experiment. Die hohe Kunst liegt bei einer solchen Raum-Zeitkorrektur (klingt nach Einstein, nicht war?) natürlich in der Filtererstellung, was mit Ulis Software "Acourate" gemacht wird. Ich habe ziemlich viele Filter erstellt und ausprobiert, aber keines klang so gut wie das, das Uli nur aufgrund von meinen Messkurven aus dem Ärmel geschüttelt hat. Er hat dabei als i-Tüpfelchen noch seine Spezialsoftware eingesetzt, mit der die Sprungantworten der beiden Stereokanäle in den ersten ms gematched werden. Nach einem ersten intensiven Hör-Abend hatte ich eine klare Meinung gebildet. Zur Bestätigung oder zum in-Frage-Stellen bat ich meine arme Frau wieder mal, als Bindtest-Versuchsperson zu fungieren. Nach einiger Zeit kam ihr Urteil: Das eine klingt unmöglich (war a), das andere ist kaum besser (b), und das dritte ist ok (c). Verwöhnte Göre . Nun meine Meinung: a klingt tonal schlechter als bisher, ist ja auch der unkorrigierte FG. Mit b ist der FG in etwa so, wie ich ihn mit meinem (digital eingeschleiften) Behringer DEQ2496 eingestellt hatte, und so klingt es auch. Ziemlich ok. Bei c passierte aber etwas gänzlich Unerwartetes: Bei exakt gleicher Tonalität öffnet sich ein Raum nach hinten, der sich um so deutlicher von demjenigen bei b abhebt, je komplexer die Musik wird. Also z. B. bei einem Sinfonieorchester, wenn alle Mann ins Rohr blasen dürfen oder auch bei einer Bigband. Schaltet man von c auf b, ist es, wie wenn man den Monoschalter betätigt, aber ein Monoschalter für die Längsachse. Im Vergleich zu c rücken die armen Musiker alle auf dichten Raum gedrängt zusammen, in der Nähe der 2D-Ebene zwischen den Boxen. Eine gewisse Darstellung in der Tiefe bleibt schon, aber bei c kann z. B. ein Holz- oder Blechbläser einige Meter weit hinten auf der Bühne erscheinen, was bei b nicht geht. Es hängt aber sehr stark von der Aufnahme ab. Steril und lieblos zusammen Gemischtes bleibt flach, ob b oder c. Aber Top-Aufnahmen wie z. B. der BigbandAusflug von Robbie Williams "Swing When You're Winning" klingen grandios. Übrigens finde ich die genannte CD die einzig Anhörenswerte von ihm. Aber auch Rainers Beethoven-Tipp für 10Euro ist fantastisch in der Tiefe gestaffelt! In meinem Hörbericht zur FM701 schrieb ich was von dem Einatmen, das bei Stadtfeld gleich nach den ersten 10s im ersten Stück zu hören ist. Meine Frau meinte, es klänge nun (bei c) nicht mehr so asthmatisch (wie bei b) - sie hat als Internistin da eine berufsbedingte Urteilskraft. Aber auch ich als einfacher Elektriker finde, dass das Atmen natürlicher klingt. So, was heißt das jetzt? Ich bin völlig ratlos, weil all die Literatur, die ich mir bisher zu dem Thema reingezogen habe, das Gegenteil behauptet. Die Gruppenlaufzeit, die es bei mir max. zu korrigieren gibt, liegt im Bass bei 4ms. Alles unter 10ms sei dort nicht hörbar, heißt es. Bei höheren Frequenzen sinke die Wahrnehmbarkeitsschwelle auf 0,5ms ab, aber ebenso sinkt die GLZ-Verzerrung meiner Anlage, die stets unter den angegebenen Literatur-Werten liegt. Ich stelle mal einen ersten zarten Erklärungsversuch zu Diskussion: Bei den bisherigen Versuchen wurde zwar die GLZ der Weiche und des Chassisversatzes soweit einigermaßen ausgeglichen, aber die Präzision, mit der Ulis Software die Sprungantwort am Hörplatz restauriert, wurde dort nicht erreicht. Und möglicherweise tritt der gehörte Effekt erst ein, wenn diese Präzision erreicht wird. @Franz (dessen Audiovolver II ebenfalls Ulis Filteralgorithmen verwendet): Bei Dir gab's ja nicht nur die Gruppenlaufzeit, sondern auch den Amplituden-FG zu korrigieren. Nachdem Du Dich jetzt an die neue Tonalität gewöhnt hast - stellst Du bei Dir auch diese Zunahme der räumlichen Tiefe fest? Das Ergebnis hat mich dazu animiert, einen weiteren Test an einer anderen Anlage, bei meinem Freund Helmut zu unternehmen. Ich schraube gerade eine weitere FIRKiste zusammen (jetzt weiß ich ja, wie's geht). Helmut hat eine Anlage (von mir aufgebaut), die ich für konseqent halte: Sonos im ganzen Haus, Musik kommt nur von der Netzwerkplatte oder vom Internet. Schlafzimmer Sonos ZP120 mit kleinen Nubertboxen, ist zum Einschlafen oder Wecken ok. Terasse ZP120 und JBL Control1G, sind wetterfest. Und der Rest alles aktiv: Küche ZP90 mit ADAM A5, Arbeitszimmer/Bibliothek ebenfalls ZP90 plus A5, und im Wohnzimmer, wo hauptsächlich Musik gehört wird, Sonos ZP90, der am Analogausgang ein Pärchen Backes & Müller BM2 versorgt. Das klingt schon ganz erstaunlich gut! So, und diese ZP90-BM2-Kombi kriegt jetzt auch eine FIR-Kiste. Die Soundkarte frisier' ich so, dass der Analogausgang was taugt. Dann kommt der ZP90 per S/PDIF an die FIR-Kiste und der Analogausgang an die BM2. Lautstärkeregelung wie bisher über's Sonos (gibt ja, wie schon oft hier diskutiert, 24bit aus, so dass kein KlangVerlust bei 16/44,1k-Wiedergabe auftritt). An den Analogeingang kommt übrigens das bereits von der Glotze Lautstärke-geregelte TV-Signal, das einen zweiten Filtersatz zu den BM2 durchläuft - der aber nur minimalphasig korrigiert. Damit ist für Lippensynchronität gesorgt, und die eingebauten Tröten in der Flachglotze schlagen die BM2 mit links, auch wenn der Raum nur minimalphasig korrigiert ist. Die vier Filtersätze (2x minphasig für TV am Analogeingang, 2x linphasig für Sonos am Digitaleingang) laufen parallel, was das 1GHz-Motherbördchen gut auslastet. Es geht, habe ich schon mal ausprobiert. Man muss dann nichts umschalten, Glotze an, Ton kommt, Sonos an, Ton kommt auch. So ist zumindest der Plan. Ich bin sehr gespannt darauf, welche Verbesserung bei dieser Anlage zu hören sein wird. BTW: Auch wenn man Ulis "Acourate" nur auf seinem eigenen Rechner installiert hat, muss man sich erneut um die Lizenzfrage bemühen, wenn das Ergebnis der Berechnungen bei jemand anderem eingesetzt wird. In diesem Fall habe ich das natürlich mit Uli abgesprochen. Bei den bisherigen Versuchen wurde zwar die GLZ der Weiche und des Chassisversatzes soweit einigermaßen ausgeglichen, aber die Präzision, mit der Ulis Software die Sprungantwort am Hörplatz restauriert, wurde dort nicht erreicht. Und möglicherweise tritt der gehörte Effekt erst ein, wenn diese Präzision erreicht wird. Hallo Gert, für mich ist das leicht erklärbar: 1. Viele GLZ-Untersuchungen sind mono erfolgt. Da ist das Ganze nicht so wichtig. 2. Die GLZ-Verzerrungen sind nun für Dich leicht erkennbar weil Vergleichsmöglichkeit. Ohne eine solche bzw. ohne die Möglichkeit der Exzessphasenkorrektur (vermeintlich unmöglich oder störend wegen pre-ringing) stochert man doch sehr im Nebel. 3. Ich denke die Leute denken zu wenig nach. Ich grüble häufig über das Hörverhalten. Es ist klar dass wir als Fluchttiere reflexartig auf Impulse reagieren müssen. Da hat aber ein Tiefton keine Zeit sich auszubilden. Also ist er nicht wichtig und wird deshalb weniger kritisch unter Zeitaspekten wahrgenommen. So ergibt sich denn für mich die zeitliche Reihenfolge beim Hören: - Impulse (Hochton) - Mittelton - Tiefton - Klang - Melodie - Musik Um nun die Richtung eines Impulses=Gefahrenquelle richtig einschätzen zu können muss die Phasenlage klar ausgewertet werden. Na ja, ein wenig denken manche doch nach, siehe Vorschlag für einen einzelnen Subwoofer anstelle von zweien. Nebenthema: wenn Du Dich mit der S-Transform beschäftigst bemerkst Du dass die Frequenzauflösung ziemlich mies aussieht. Eigentlich möchte man das ganz genau haben. Nun nimm mal die Extremas: in der time domain haben wir alle Feinheiten über das zeitliche Verhalten, wissen aber nichts über die Frequenzen. In der frequency domain kennen wir die Frequenzen, wissen aber nichts über das zeitliche Verhalten. Da kommt die Unschärferelation (eigentlich für etwas anderes erfunden) ins Spiel. Wavelets und S-Transform liegen nun dazwischen, von jedem etwas aber nicht 100% präzise. Klar soweit? Und nun lass uns nachdenken wie ein Ohr/Gehirn hört. Das nimmt Schallereignisse zeitlich auf und ermittelt Frequenzen. Nach der Vorrede sollte klar sein, dass wir demzufolge in einem Frequenzgemisch nicht präzise Frequenzen separieren können (wenn das schon mathematisch nicht geht wie soll denn das Hirn FFT rechnen?). Und so spielt das enge Gezappel in einem Frequenzgang keine Rolle, es kommt auf den weitläufigen Verlauf an. Manches erschliesst sich ganz logisch aus solchen philosophischen Betrachtungen. Für mich übrigens war das Schlüsselerlebnis hinsichtlich GLZ und Pulsgleichheit ein Kunde wo die Korrektur versagt hat. Der hat Kharma Exquisite Midi Lautsprecher. Nach der Analyse des Versagens war klar: ich hab noch nie vorher ein so perfekt gematchtes Paar LS gesehen. Keine ideale Sprungantwort aber perfekt zueinander. Und die übliche Raumkorrektur, die ja gerade in den ersten ms die wesentliche Rolle spielt hat die Pulsgleichheit zerstört. Seitdem denke ich drüber nach wie ich diese Aufgabe löse. Die Lösung kenn ich nun. Patentwürdig und kein Geld dafür. Und mein lieber Wettbewerb wartet nur drauf dass er erfährt wie es geht. Ich muss es also automatisieren... Uli hat sich mit der Materie schon sehr tief beschäftigt, und ich bin froh, dass wir mit ihm im Forum einen netten Mitschreiber haben, von dem wir sehr viel lernen können. Ich denke, dass die meisten von uns Anlagen daheim stehen haben, die nur darauf warten, dass sie die dritte Dimension eröffnen dürfen. Wer in den Genuss kommen möchte, hat zwei Möglichkeiten: 1. Man nimmt ein fertiges Produkt von Audiodata oder Definteaudio, die eine Hardwarelösung für Ulis Software bieten. Aber auch andere Lösungen wie Audyssey, Lyngdorf und Co. bringen einen evtl. weiter. Wobei die absolute Zeitrichtigkeit aber nach meiner jüngsten Erfahrung wohl der entscheidende Faktor für eine gesteigerte räumliche Darstellung ist - nicht alle Raumkorrektursysteme bieten das. 2. Wer gerne selbst bastelt, schraubt sich was zusammen. Wie das z. B. aussehen kann, stelle ich demnächst vor. von uli.brueggemann » 15.04.2009, 15:14 Fortepianus hat geschrieben:Wobei die absolute Zeitrichtigkeit aber nach meiner jüngsten Erfahrung wohl der entscheidende Faktor für eine gesteigerte räumliche Darstellung ist - nicht alle Raumkorrektursysteme bieten das. Die Systeme a la Audyssey, Lyngdorf, TacT (damit hab ich übrigens mal angefangen), DEQX bieten hinsichtlich der Raumkorrektur nur minimalphasige Lösungen, keine Exzessphasenkorrektur. Dies entspricht dem von Gert beschriebenen Hörergebnis b). Der Trick, evtl. durch linearphasige Frequenzweichen und Delays zwischen den einzelnen Treibern eine Zeitrichtigkeit zu erreichen klappt wohl ganz gut, löst aber nicht das Problem der GLZ zwischen den Treibern unter Raumeinfluss (Exzessphase). Nun noch einige Fragen zur Implementierung: Fortepianus hat geschrieben:Der Messfile liegt auf dem USB-Stick der FIR-Kiste, und ein speziell gestricktes Mess-Skript spielt die Messtöne direkt vom Stick an die Ausgänge der Soundkarte. An einen Eingang der Soundkarte kommt das Mikro (über einen externen Mikrovorverstärker). Der individuell erstellte Mess-Schrieb meines Mikros wurde zuvor in Acourate in ein dazu inverses Filter umgerechnet. Mit diesem Filter wird nun das Mikrofonsignal behandelt und anschließend das Ergebnis als File auf den Stick gespielt. Das heisst, man braucht nur im "Korrekturrechner"(auch Faltungsrechner oder Convolver) eine hochwertige Soundkarte, im Acourate-Rechner (der ja unter Windows laufen muss) reicht dann der Onboard-Sound. Ist diese Lösung nun für alle Acourate-kunden möglich ? Deshalb wird jetzt der Mess-Schrieb erst mal in den RAM gespeichert und am Ende der Messung in aller Ruhe auf den Stick geschoben Wie gross ist den der RAM des Systems ?(fehlt bei den Specs oben) Betrachtet man das Wiedergabesystem als Black Box, weiß man nach der Messung, welches Signal raus kommt. Und was man rein geschickt hat, weiß man schließlich sowieso. Hat man Eingangs- und zugehöriges Ausgangssignal eines Systems, hat man alle seine Übertragungseigenschaften. Man kann dann in Acourate die Impuls- und die Sprungantwort sowie den Frequenz- und Phasengang berechnen und sich die Verzerrungen ansehen. Wie habt ihr denn die Messdaten an Acourate übergeben ? Hat dieses Programm jetzt eine neue Schnittstelle, dass es statt der bisher notwendigen Messung an der Windowskiste nun auch bereits gemessene Daten vom Linuxrechner übernehmen kann ? D.h. hat Uli ein Datenformat spezifiziert, dessen Informationen Acourate dann wie die üblichen Messwerte behandelt ? Bei jedem der obigen Schritte kann man aber diverse Parameter einstellen - wer Freude am Experimentieren hat, kommt voll auf seine Kosten. Ein nicht zu unterschätzender Vorteil, gerade auch, wenn man öfter Anlage oder Möbel verändert. Ausserden würde es mich stören, meine Messdaten frei zugänglich auf einer Website vorzufinden (spricht gegen die Privacy, wenn ein Hersteller sowas ohne Login zulässt). Etwas gewöhnungsbedürftig ist, dass das Rechnerlein erst mal eine Minute booten muss, bevor Musik spielt. Uli meinte, mit einer fest eingebauten Speicherkarte und hier und dort noch ein paar Verbesserungen in den Configs liese sich die Zeit deutlich reduzieren. von uli.brueggemann » 16.04.2009, 07:58 Kienberg hat geschrieben:Das heisst, man braucht nur im "Korrekturrechner"(auch Faltungsrechner oder Convolver) eine hochwertige Soundkarte, im AcourateRechner (der ja unter Windows laufen muss) reicht dann der Onboard-Sound. Ist diese Lösung nun für alle Acourate-kunden möglich ? Wie gross ist den der RAM des Systems ?(fehlt bei den Specs oben) Wie habt ihr denn die Messdaten an Acourate übergeben ? Hat dieses Programm jetzt eine neue Schnittstelle, dass es statt der bisher notwendigen Messung an der Windowskiste nun auch bereits gemessene Daten vom Linuxrechner übernehmen kann ? D.h. hat Uli ein Datenformat spezifiziert, dessen Informationen Acourate dann wie die üblichen Messwerte behandelt ? Bei jedem der obigen Schritte kann man aber diverse Parameter einstellen - wer Freude am Experimentieren hat, kommt voll auf seine Kosten. Ein nicht zu unterschätzender Vorteil, gerade auch, wenn man öfter Anlage oder Möbel verändert. Einige Anworten hierzu: Im Faltungsrechner braucht man auf jeden Fall eine Soundkarte, möglichst gut natürlich. Egal ob analog oder voll digital (ich ziehe letzteres vor). Nun ist es mit BruteFIR eben auch möglich neben der üblichen Aufgabe (sich in den Übertragungsweg einzuschleifen und zu filtern) einen Soundtrack (noch ne Zwischenbemerkung: damit kann man auch nen Mediaplayer von einer Festplatte oder NFS-Laufwerk etc. realisieren) abzuspielen und dabei gleichzeitig aufzunehmen. Das haben wir ausgenutzt um die Anlage zu messen. Acourate ist ein Windows-Programm und braucht keine Musik zu spielen und auch keine Soundkarte (obwohl es das auch kann). Es ist eine Toolbox mit der die Korrekturfilter erstellt werden (eigentlich eher ein "wissenschaftlicher" Taschenrechner, man kann viel mehr als nur Korrekturfilter. Wie bei jedem Taschenrechner muss man nur wissen welche Knöpfchen man drückt). Um das zu tun liest man die gespeicherten Daten vom Faltungsrechner (so ein USB-Stick erlaubt doch einen simplen Datentausch), rechnet schnöde bis zu den Korrekturfiltern durch und kopiert diese auf den Stick. Rein in den Faltungsrechner, booten und fertig ist die Laube. Das Datenformat für das Lesen der Messdaten ist ein simples 32bit float Format. Korrekturfilter werden standardmässig als 64bit double float übergeben (BruteFIR = brute = brutal = keine Kompromisse) Das Einmessen und Neurechnen bei Veränderung von Anlage, Möbel und Raum ist ein Klacks. Mikro anschliessen, Messung starten (simples Skript-Kommando), Messdaten übernehmen, Korrektur rechnen und auf dem Stick speichern, neu booten und Musik hören. RAM-Grösse für Faltungsrechner klappt schon ab 256 MB. Stickgrösse ab 128 MB. Diese kleinen Speichergrössen dürften heute schon fast schwierig zu besorgen sein. Für das Zusammenbauen des Faltungs-PCs brauche ich ca. 1/2 Stunde. USB-Stick erstellen ca. 5 Minuten (die meisten Sticks sind mit FAT32 vorformatiert und können unmittelbar verwendet werden). Das ist also nicht kompliziert. Kompliziert wird es nur dann wenn man eine neue Soundkarte verwendet, die Treiber ermitteln muss, die Konfiguration ist häufig tricky etc. Ich will mal das Softwarepaket welches Gert verwendet (Basis ist eine M-Audio Delta Audiophile 2496 Soundkarte, 2 analog in(out, 2 digital spdif in/out) fertig zusammenstellen für eine Downloadmöglichkeit. Mit einer kleinen Anleitung ist dann alles easy zu bauen, zu konfigurieren und zu bedienen. Auch für Nicht-Techniker und Nicht-Linux-Freaks. Kienberg hat geschrieben: Wie gross ist den der RAM des Systems ?(fehlt bei den Specs oben) Du hast natürlich recht, ich habe vergessen, den Speicherriegel zu erwähnen - habe 1GB reingesteckt. Ist mehr als man braucht, aber die Hälfte kostet gerade mal 1,45 Euro weniger. So schwäbisch sparsam bin ich dann auch wieder nicht. Fortepianus hat geschrieben:Der Messfile liegt auf dem USB-Stick der FIR-Kiste, und ein speziell gestricktes Mess-Skript spielt die Messtöne direkt vom Stick an die Ausgänge der Soundkarte. An einen Eingang der Soundkarte kommt das Mikro (über einen externen Mikrovorverstärker). Der individuell erstellte Mess-Schrieb meines Mikros wurde zuvor in Acourate in ein dazu inverses Filter umgerechnet. Mit diesem Filter wird nun das Mikrofonsignal behandelt und anschließend das Ergebnis als File auf den Stick gespielt. Das heisst, man braucht nur im "Korrekturrechner"(auch Faltungsrechner oder Convolver) eine hochwertige Soundkarte, im Acourate-Rechner (der ja unter Windows laufen muss) reicht dann der Onboard-Sound. Ist diese Lösung nun für alle Acourate-kunden möglich ? Wenn man Linux entsprechend konfiguriert (in syslinux.cfg), ist das kein Problem (entsprechend große RAM-Disk muss eingerichtet werden). Wenn Uli meine Files zum Download bereit gestellt haben wird, können das alle so machen. Allerdings braucht man für die von mir verwendete Soundkarte einen externen Mikrofonvorverstärker. Wie habt ihr denn die Messdaten an Acourate übergeben ? Hat dieses Programm jetzt eine neue Schnittstelle, dass es statt der bisher notwendigen Messung an der Windowskiste nun auch bereits gemessene Daten vom Linuxrechner übernehmen kann ? D.h. hat Uli ein Datenformat spezifiziert, dessen Informationen Acourate dann wie die üblichen Messwerte behandelt ? Zuerst wird die Messdatei (z.B. 48kHz Samplerate, 10-24000Hz, stereo L, R) als LogSweep48.wav samt ihrer Inversen von Acourate erzeugt und auf den Stick gespeichert. Das Ergebnis der Messung liegt dann als record48.pcm auf dem Stick, den man einfach in den PC steckt und die Datei in ein Verzeichnis für Acourate kopiert. Acourate kann das direkt einlesen und mit der zuvor erzeugten Inversen falten. Und schon sind die Messdaten im PC und können mit Acourate weiterverarbeitet werden. uli.brueggemann hat geschrieben:Für das Zusammenbauen des Faltungs-PCs brauche ich ca. 1/2 Stunde. USB-Stick erstellen ca. 5 Minuten (die meisten Sticks sind mit FAT32 vorformatiert und können unmittelbar verwendet werden). Das ist also nicht kompliziert. Kompliziert wird es nur dann wenn man eine neue Soundkarte verwendet, die Treiber ermitteln muss, die Konfiguration ist häufig tricky etc. Ich will mal das Softwarepaket welches Gert verwendet (Basis ist eine M-Audio Delta Audiophile 2496 Soundkarte, 2 analog in(out, 2 digital spdif in/out) fertig zusammenstellen für eine Downloadmöglichkeit. Mit einer kleinen Anleitung ist dann alles easy zu bauen, zu konfigurieren und zu bedienen. Auch für Nicht-Techniker und Nicht-Linux-Freaks. Das sehe ich auch so, das müsste problemlos gehen. Wenn man sowas machen will, braucht man wie gesagt noch ein Messmikro mit Korrekturfile - hier gibt es z. B. so was komplett individuell ausgemessen mit tauglichem Mikrofonvorverstärker für 181 Euro. Im Musikergeschäft oder bei Thomann noch einen Mikrofon-Ständer besorgt und los geht's. Gut wäre deshalb, Du würdest in die Anleitung noch aufnehmen, wie man in Acourate die Korrekturdatei des Mikros einliest und ein Filter für die Messung daraus macht. In Deinem Fall würde es sich anbieten, eine Soundkarte mit mehr Ein-/Ausgängen zu verwenden, mit der Delta 1010LT hat Uli wohl gute Erfahrungen gemacht. Denn Du könntest bei Dir ja drei BM4 und vielleicht noch den einen oder anderen Sub in die Korrektur einbeziehen. Allerdings macht die volle Exzessphasenkorrektur ein Delay von ca. 700ms - das wäre zum einen so, als würden die BM4 240m weit von den BM35 weg stehen und zum anderen ist das nicht gerade das, was man unter Lippensynchronität versteht, wenn die Glotze läuft. Deshalb würde ich Dir zum Experimentieren ein Motherboard empfehlen, das mehr Power mitbringt als das meine, dann könntest Du nämlich einfach alle fünf oder sechs (mit LFE) Kanäle korrigieren - und bei Film auf minimalphasig umschalten. Das Experiment wäre sehr interessant: Was passiert klanglich, wenn Du die BM35 damit korrigierst? Sie bringt ja von Haus aus die absolute Zeitrichtigkeit mit. Ulis Filter sorgen aber zusätzlich dafür, dass das speziell für den Platz auf Deinem Wohnzimmersofa gerechnet ist. Ob man da noch einen Unterschied hört, wäre äußerst spannend - das BM-FIR-Filter ist ja nicht speziell für Dein Wohnzimmer gerechnet. Es wäre die Klärung der Frage: Kann man bei der BM35 durch eine individuelle Laufzeitkorrektur noch eins drauf setzen? Ich hab da so ein paar Moeglichkeiten mit der HW. Werde da mal groesser anfangen um dann zu schaun was ich brauch. Dachte an die DMX 6 USB als Soundkarte... hat ja den gleichen Chipsatz und wird vom Alsa unterstuetzt. Ok ich hoere hier mal auf, wird sonst OT. In diesem Zusammenhang nochmals eine grundsätzliche Frage zum Verfahren: Wenn man nun eine Soundkarte mit 5 oder gar 8 Ausgängen hat, kann dann die Optimierung auf alle Lautsprecher im Surroundsetup angewandt werden, d.h. ist es so möglich (ähnlich Audyssey) auch eine Mehrkanalanlage zu rechnen, aber mit den Vorteilen der Exzessphasenkorrektur ? Wenn ichs richtig verstanden habe, müsste das gehen, wenn der Faltungsrechner ordentlich Power hat und man nur Musik hört. Der entstehende Zeitversatz und die dann auftretenden Synchprobleme mit dem Bild, spielt ja keine Rolle. Wenn man Filme sieht, schaltet man auf ein anderes, schnelleres Filter um. von uli.brueggemann Kienberg hat geschrieben: Wenn man nun eine Soundkarte mit 5 oder gar 8 Ausgängen hat, kann dann die Optimierung auf alle Lautsprecher im Surroundsetup angewandt werden, d.h. ist es so möglich (ähnlich Audyssey) auch eine Mehrkanalanlage zu rechnen, aber mit den Vorteilen der Exzessphasenkorrektur ? Ja das geht. Das Messen ist etwas aufwendiger, da man mehrfach messen muss und sich auch die Korrekturen "zusammenbastelt" (für ein vollautomatisches Durchrechnen von 5 oder 8 Kanälen war mir der Programmieraufwand zu hoch, schlichtweg ein mieses Kosten-Nutzen-Verhältnis). Es gibt jedoch Parameter um z.B. das Lautstärkeverhältnis der Boxen mit zu berücksichtigen. Und so gibt es auch einige wenige Nutzer mit Surround-System. Klare Aussage: es geht. Ich selbst betreibe eine normale Core2Duo CPU, HFX mini Gehäuse mit Heatpipe. Die reicht allemal dafür. In meinem Fall rechne ich 6 Kanäle (3-Wege stereo), hatte vorher auch schon 8 Kanäle (4-Wege stereo). Der Rechenaufwand ist dabei identisch, kein Problem. Mit meinem System unterscheide ich mich somit von den Regelungsfreaks hier im Forum. Weil ungeregelte Treiber. Ich hab Woofer in den Raumecken (bis 350 Hz), Selbstbau-LS mit B&W FST Mitteltönern und Scanspeak Ringradiatoren. Die Treiber über Acourate-XO angesteuert und für MT und Hochton linearisiert. Alle Treiber bezgl. Ankunftszeit am Hörplatz ausgemessen und per entsprechender Delays justiert. Siehe Tutorials auf der Webseite. Dazu bietet das Programm reichlichst Unterstützung. (Ich benutze z.B. steile NevilleThiele XOs 2ter Ordnung, passiv wohl schwierig machbar. Die hat sich sogar der Bernt Ronningsbakk für sein Audiolense von der duffroomcorrection-wiki kopiert Tja, ich musste dazulernen: wer nach allen Seiten offen ist, kann nicht ganz dicht sein). Wer meine Gedanken hinsichtlich XO, inkl. subtraktive XO nachlesen möchte, der kann mal dort nachschauen. von uli.brueggemann » 16.04.2009, 20:05 Hallo zusammen, habe wie versprochen eine Bastelanleitung für einen Faltungsrechner erstellt. Beschreibung unter http://www.acourate.com/freedownload/BruteFIR_Delta2496_2.6.26.8-rt12.pdf Das zugehörige Softwarepaket unter http://www.acourate.com/freedownload/BruteFIR_Delta2496_2.6.26.8-rt12.zip wgh52 hat geschrieben:Unter welchen Hard- und Software-Bedingungen könnte man diese Maschine gleichzeitig als Linearisierer, Excessphasenkorrigierer und digitale Frequenzweiche (3-4 Weg) nutzen? Wie kompliziert oder unkompliziert geht das? Mit einer VIA EPIA EN12000 CPU und einer Delta 1010LT Soundkarte lässt sich schon ein 3-Wege-System realisieren. Ich selbst würde noch etwas draufpacken und mit einer nicht zu hoch getakteten Core2Duo CPU agieren. Passiv gekühlt. Genau das habe ich jetzt auch selbst im Einsatz. Das sind dann 6 Filter mit je 65536 taps (131072 taps tuns übrigens auch). Jedes Filter ist zugleich Frequenzweiche, Linearisier und anteilig Raumkorrektur inkl. Exzessphase in einem. Natürlich MUSS ich sagen dass das unkompliziert geht. Na ja, etwas Motivation muss man schon haben und Interesse, sich in die Materie einzuarbeiten. Was hier im Forum aber wohl nicht ein Problem ist. Fortepianus hat geschrieben:Das Ergebnis hat mich dazu animiert, einen weiteren Test an einer anderen Anlage, bei meinem Freund Helmut zu unternehmen. Ich schraube gerade eine weitere FIR-Kiste zusammen (jetzt weiß ich ja, wie's geht). Kiste Nr. 2 ist fertig. Die Kette sieht so aus: - Sonos ZP90 S/PDIF koax raus, LS-Regelung digital über Sonos - FIR-Kiste mit frisierter Soundkarte, dig. In, analog Out - BM2 Eine Besonderheit ist hier, dass parallel zu den zwei linearphasigen Filtern für den Digitaleingang zwei weitere minimalphasige Filter für das Signal, das am Analogeingang hängt, gerechnet werden. Am Analogeingang hängt der Lautstärkegeregelte Ausgang des Fernsehers. Man muss nichts umschalten, Glotze an, Ton kommt, Sonos an, Ton kommt. Anschließen, messen und Filter rechnen war nach ca. 2h erledigt. Der ursprüngliche FG in dem ca. 60m² großen Wohnzimmer sah miserabel aus, recht zerklüftet im Bass mit deutlicher Grundtonsenke. 1. Test: Filter auf bypass, um nur mal den DA-Wandler im Vergleich zu vorher (Analogausgang ZP90) zu hören: Die gepimpte Soundkarte schlägt die Wandlersektion des Sonos-Würfelchens locker. Spielt deutlich impulsgenauer und präziser. 2. Test: Minimalphasige Filter eingeschleift (das ist das, was Lyngdorf, Auyssey und Co. können): Der begradigte FG zeigt deutliche Wirkung. Stimmen, die vorher etwas dünn und körperlos wirkten, nehmen Gestalt an und verlieren an Blutleere. Das Dröhnen im Bass ist beseitigt. 3. Test: Linearphasige Filter eingeschleift: Erst, wenn man das gehört hat, weiß man, dass das Klangbild vorher flach wie ein Brett war. Akademische Diskussionen um "ist hier bei Variante X nicht vielleicht die Räumlichkeit ein bisschen bisschen besser als bei Y" sind hinfällig. Es geht ein tiefer Raum nach hinten auf - entsprechende Aufnahme vorausgesetzt. Helmut und seine Frau staunten beim Zurückschalten auf die minimalphasige Lösung mit dem Wort "Mono" auf den Lippen. Meine Frau, in der Beurteilung von Hifi-Wohlklängen eher nüchtern veranlagt, meinte: "Unterschied vorher - nachher etwa wie bei uns, aber die Boxen sind halt schlechter." Um wieder etwas blumiger zu werden, es ist schon erstaunlich, was mit der FIR-Kiste aus dieser Anlage in diesem Raum für ein Klang zu holen ist. Klar, mit besseren Boxen (Helmut liebäugelt insgeheim mit der BM18) geht natürlich mehr. Aber ich finde, bevor sich der Schritt von der BM2 zu einer größeren Aktivbox auszahlt, ist eine solche Raumkorrektur mit Herstellung der Zeitrichtigkeit eine Grundvorraussetzung. Bei einem Tausch der Lautsprecher würde man eben neue Filter rechen. In einer Stunde erledigt. Schon erstaunlich, noch vor Kurzem stellte ich ja noch die Sinnfrage "hört man das überhaupt". Und so langsam verfestigt sich in mir der Gedanke, dass nur mit individuell eingemessener FIR-Raumkorrektur das akustische Eintauchen in den Aufnahmeraum möglich ist. 1. Ist der Analogeingang der Soundkarte qualitativ angemessen um Analogquellen zu hören oder braucht man vielleicht externe AD Wandlung?? 2. Wie schaltet man zwischen Analogem und digitalem Eingang der DSP Box um? von uli.brueggemann wgh52 hat geschrieben:1. Ist der Analogeingang der Soundkarte qualitativ angemessen um Analogquellen zu hören oder braucht man vielleicht externe AD Wandlung?? 2. Wie schaltet man zwischen Analogem und digitalem Eingang der DSP Box um? 1. ich kann leider nicht viel dazu sagen. Ich höre schon seit Jahren nicht mehr analoge Quellen in meinem System. Weiterhin kenne ich die Delta 2496 Soundkarte nur aus der Ferne. Somit müsste Gert sich dazu melden. Trotzdem vermute ich mal: natürlich gibt es schlechte und gute Wandler. Aber der zitierte sollte nicht zu mies sein. Es sei denn dass Gert auch an dem umbauen täte Hoppla. Es ist NICHT gemeint dass der Wandler nach Umbau durch Gert mies wäre 2. Die Steuerung des Faltungsrechners kann auf mehrfache Art erfolgen. Im einfachsten Fall über die Tastatur. Zum Beispiel laufendes Digitalprogramm mit Stranguliere-C abbrechen und Analogprogramm starten. Das jeweils zugehörige Skript wählt dann den jeweiligen Eingang aus. Eine Fernbedienung kann dasselbe tun. Ich kenn noch einen Bauvorschlag der Steuerleitungen der RS232-Schnittstelle nutzt. Eine Webschnittstelle hatte ich auch schon mal probeweise laufen (bin allerdings kein html/php/java...-Freak). Und haben dann mit einem Handy mit Webzugriff Funktionen ausgelöst. Merke: mit einem PC lässt sich so ziemlich alles realisieren. ja, der Wandler ist ok, es ist ein AK4528. Nicht das Allertollste, aber gut. wgh52 hat geschrieben:Ist der Analogeingang der Soundkarte qualitativ angemessen um Analogquellen zu hören oder braucht man vielleicht externe AD Wandlung?? Sehr begrenzend auf die Klangqualität ist im vorliegenden Fall die analoge Beschaltung vor AD und nach DA. Da habe ich mir erlaubt, ein wenig einzugreifen. Wer sich zutraut, einen SMD-OP und Elkos aus einer doppellagigen Platine auszulöten, kriegt von mir gerne Tipps, wie das geht und was man machen muss. Ich habe zwar keinen Schaltplan von der Soundkarte, aber nach zweimal scharf ansehen ist klar, dass es sich genau um die Analogsektion handelt, die als Vorschlag im Datenblatt des Wandlers abgedruckt ist. Ich habe allerdings nur den DA-Teil modifiziert - die AD-Wandlung ist aber genauso zu machen. Bessere OPs rein und Elkos raus in Kurzfassung. Kräftige Ausgangsstufe mit guter Versorgung bei DA, wäre zu ergänzen. uli.brueggemann hat geschrieben:Weiterhin kenne ich die Delta 2496 Soundkarte nur aus der Ferne. Somit müsste Gert sich dazu melden. Trotzdem vermute ich mal: natürlich gibt es schlechte und gute Wandler. Aber der zitierte sollte nicht zu mies sein. Es sei denn dass Gert auch an dem umbauen täte Wollte man den Wandlerchip selbst ersetzen, müsste man eine Zusatzplatine machen, denn bessere Wandler wie die BurrBrowns sind nicht pinkompatibel. Deshalb habe ich mich auf die analoge Seite beschränkt. Und man kann ja eben auch digital raus und und in einen externen Wandler rein, wie bei mir. Vielleicht noch einen Big Ben dazwischen? Noch eine Frage: DA Wandlung ist ja eigentlich eine aufwändige Geschichte, aber auf der M-Audio 1010LT sind gleich 8 Stück drauf und das für unter 200 €. Sind diese jetzt minderwertig anzusehen und nicht als endgültige Lösung tragbar? Wenn ich mir DA Wandlerpreise so ansehe, müssten doch eigentlich allein in die DA Wandler hunderte bis tausende € reingehen... Wir bauen trotzdem erstmal mit der 1010LT auf, denn Deine Hörerfahrung war ja "Top"! Gert klar, mein aufwändiger DAC klingt besser, keine Frage. Im Originalzustand klingt der Analogausgang der Delta2496 recht dürftig. Etwas flau und verwaschen. Wenn man sich bei Thomann die Großaufnahmen der 2496 und der 1010LT anschaut, fällt bei etwas geschulter Beobachtungsgabe auf, dass es sich um die gleichen Wandler und Analogfilter handelt, nur mehrfach bei der 1010LT. Ein großer Schritt nach vorne geht so: Für je 2 Analogausgangskanäle ist ein Doppel-OP NE5532 zuständig. Raus damit und durch je einen LME49720MA ersetzen, mit Entlötlitze lassen sich die 5532er entfernen. Die LMEs gibt's z. B. bei schuro. Hinter den OPs sind ganz miese Billigelkos, die den beträchtlichen DC-Offset der 5532er entfernen. Sind bei den LMEs nicht mehr nötig, also die Elkos auch raus. Stufe 1: Elkos durch Drahtbrücke und den 130Ohm Längswiderstand dahinter durch 47Ohm ersetzen. Stufe 2: Anstelle der Drahtbrücke auf Extraplatine pro Kanal einen BurrBrown Buffer BUF634T mit Versorgungsspannungsentkopplung aufbauen und 12Ohm für den Ausgangswiderstand nehmen. BUF634 im High Bandwidth Mode. Details bei Bedarf. Das klingt dann immerhin schon mal so, dass Du so viel Geld für den besseren externen DAC ausgeben müsstest, dass Du vermutlich gern diese Lösung wählen wirst. Aber erst mal würde ich versuchen, die Soundkarte unmodifiziert zum Spielen zu bringen. Welche Linux Version brauchen wir denn eigentlich? Geht Ubuntu von uli.brueggemann Also: ich hab in meiner Bastelanleitung vom 16.4. hier im Thread beschrieben wie man sich einen USB-Stick erstellt. Das Programmpaket enthält bereits ein lauffähiges Linux inkl. aller Programme. Das Linux ist ein mit gentoo erstelltes mini-Linux welches mal unter dem Namen spblinux publiziert worden ist. Das war zu Zeiten als so ein USB-Stick mit 64 MB noch gross war, heute packt man ja eine komplette Distribution drauf wenn man möchte. Allerdings: für den Faltungsrechner braucht es nicht mehr. Das spblinux-Paket von mir enthält übrigens einen doch relativ neuen Kernel inkl. Realtime-Patch (wenn ich mehr Zeit hätte dann wär auch der neueste Kernel drauf, ich kompilier mir das Paket immer selbst zusammen). Es ist aber jedem freigestellt ,sich sein eigenes Linux auszusuchen. Ich kann dann nur nicht zu jeder Variante irgendwelche Auskünfte geben. Persönlich bevorzuge ich einfachste Lösungen. Ich will mich nicht einloggen müssen, keinen Bildschirm anschalten und nicht mit einer Maus herumwedeln. Einschalten, laufen lassen und Musik von einer CD geniessen. PS: Normalerweise bootet fast jeder PC mit dem Softwarepaket. Man muss natürlich akzeptieren dass es nicht spielt wenn nicht die derzeit konfigurierte Soundkarte installiert ist. Anstelle der Delta 2496 die 1010LT (gleicher Treiber) ans Rennen zu bekommen ist jedoch n Klacks. Also kannst Du schon einen Stick basteln und die ersten Bootversuche anstellen. von Rudolf KSTR hat geschrieben:... brächte ein Gegentest mit einem "vorsätzlichen" typischen Allpass in der Konfiguration c) einen zu b) vergleichbaren Verfall an Räumlichkeit? Sozusagen ein Test mit der klinischen Version einer tatsächlich reinen AllpassVerzerrung "über alles", ja Kern vieler Diskussionen? Darüber hinaus habe ich eine weitere Bitte/Frage an unsere Experten: Gelegentlich tauchen bei der Diskussion der Acourate Audio Toolbox die Begriffe minimalphasige bzw. exzessphasige Filterkorrektur auf. Könnte sich jemand dieser Begriffe annehmen und sie - aufbauend auf unserem bisherigen Wissensstand (siehe Unterforum Aktives Wissen) - anschaulich erklären? von uli.brueggemann Rudolf hat geschrieben:Ich habe mir diesen hochinteressanten Thread noch einmal genüsslich zu Gemüte geführt. Dabei ist mir aufgefallen, dass folgende Frage eventuell übersehen wurde: Ich hab diese Frage irgendwie schon gelesen. Aber ehrlich: ich weiss nicht wie ich sie deuten soll. Also keine Antwort meinerseits. Rudolf hat geschrieben:Gelegentlich tauchen bei der Diskussion der Acourate Audio Toolbox die Begriffe minimalphasige bzw. exzessphasige Filterkorrektur auf. Könnte sich jemand dieser Begriffe annehmen und sie - aufbauend auf unserem bisherigen Wissensstand (siehe Unterforum Aktives Wissen) - anschaulich erklären? Ich versuch es einmal mit einigen Bildern. Das erste Bild zeigt eine Pulsantwort und den dazugehörigen Frequenzgang. Die Pulsantwort erfolgt zu einem späteren Zeitpunkt als Null. Die Pulsantwort enthält den Frequenzgang, jedoch auch Informationen über das Zeitverhalten (Phasengang, Gruppenlaufzeit). Nun kann man den Frequenzgang auch minimalphasig darstellen. Eine minimalphasige Pulsantwort hat denselben Frequenzgang, jedoch in einer Form dass die Phasenabweichungen für jede Frequenz minimal ist. Im Prinzip ist dies die Antwort eines schwingungserregten Systemes welches auf einen äusseren Anlass kausal agiert (kausal = Schwingung nach Erregung). So etwa ein Federmasseschwinger (Mikrophonmembran, LS-Membran). Wie schön zu sehen ist fängt die grüne Kurve nun bei Null an. Nun enthält die ursprüngliche Pulsantwort jedoch noch einen zweiten Teil, die Exzessphase. Dies bezeichnet einen Allpass der also alle Frequenzen gleich überträgt, jedoch die Phasen über den Frequenzen nicht konstant lässt. Die braunen Kurven zeigen einen glatten Frequenzgang und eine gegenüber dem ersten Bild veränderte Pulsantwort, die zum selben Zeitpunkt wie die ursprüngliche Pulsantwort beginnt. Die rote ursprüngliche Pulsantwort zerlegt sich somit in Minimalphase und Exzessphase. Bzw. sie ergibt sich aus Faltung von Minimalphase und Exzessphase. Zum Abschluss noch eine weitere Darstellung. Der gezeigte Frequenzgang lässt sich auch so darstellen dass keinerlei Phasenverschiebung vorliegt. Dann haben wir eine linearphasige Pulsantwort. Gekennzeichnet durch eine symmetrische Pulsantwort mit akausalem Vorschwinger. In der Natur kommen linearphasige Pulsantworten nicht vor. Sie lassen sich durch eine Zeitverschiebung erzeugen (siehe Pulsmitte der blauen Kurve), es geht allerdings ein Einschwingen voraus. Welches im Fall von Brickwallwiltern bei der Abtastratenkonvertierung negative Merkmamle aufweist. Bei einer Korrektur gibt es zur minimalphasigen und exzessphasigen Pulsantwort jeweils ein entsprechendes Korrekturfilter. In diesem Sinn ist das gesamte Korrekturfilter wiederum das Ergebnis einer Faltung von minimalphasiger und exzessphasiger Korrektur. Im Prinzip wäre es so einfach wenn es da nicht doch noch ein paar kleine Haken und Ösen gäbe. Ich meine aus Gerts Ausführungen und deinem White Paper Thoughts About Crossovers verstanden zu haben, dass im Idealfall die Gruppenlaufzeit = 0 ist. Dies wäre dann der Fall, wenn der gesamte Frequenzbereich ohne Phasendrehungen übertragen würde. In der realen Welt haben aber sowohl die Chassis selbst als auch die Frequenzweichen Einfluss auf die Phasenlage, die sich mithin über den Frequenzbereich munter verändern kann. Der zweitbeste Fall, so haben wir von Gert gelernt, ist eine konstante Veränderung der Phasenlage über den gesamten Frequenzbereich, eine konstante Grupenlaufzeit also. Der "Normalfall" aber scheint zu sein, dass nicht einmal eine konstante Gruppenlaufzeit gegeben ist, vor allem dann nicht, wenn man Stereo hört und also Phasenverschiebungen infolge kleiner oder großer Abweichungen der Phasenlagen beider Lautsprecher hinzukommen (Paarungleichheit). Der Raum tut sein Übriges, die Phasenlagen (und natürlich auch den Frequenzgang) noch weiter divergieren zu lassen. Wenn ich es richtig verstanden habe, ist es das Ziel digitaler Korrektursysteme, sowohl die Amplituden des Frequenzgang zu linearisieren als auch die Phasenlagen (am Hörplatz) miteinander in EInklang zu bringen. So weit, so gut. (Hoffentlich habe ich bis hierhin alles richtig verstanden, ansonsten möge man mich bitte korrigieren.) Am einfachsten scheint mir die Phasenkorrektur zu funktionieren, indem man die hohen Frequenzen solange verzögert, bis sie mit den niedrigen Frequenzen in Harmonie (= gleicher Phasenlage) sind. Denn die niedrigen Frequenzen haben bei "falscher" Phasenlage aufgrund ihrer Schwingungsdauer die größten Zeitabweichungen. Der einzige Nachteil ist, dass das gesamte, nunmehr phasenkorrigierte Signal etwas später an unser Ohr gelangt. Schlecht eigentlich nur bei Videos, aber lässt sich zum Ausgleich nicht auch einfach das Bild "delayen"? Wieso aber nun kann man die Phasenkorrektur auf unterschiedliche Weise durchführen? Plötzlich tauchen Begriffe wie minimum-, exzess- und linearphasige Korrektur auf und die eine scheint dabei "besser" als die andere zu sein? In welcher Beziehung stehen diese offensichtlich unterschiedlichen Korrekturverfahren zu dem von mir skizzierten? Handelt es sich z.B. bei der Darstellung der minimum- und exzessphasigen Sprungantwort um eine mathematische "Reduktion" einer realen, wirren Sprungantwort auf ihre beiden Extreme? Ich bin ganz ehrlich, ich habe dies auch unter Zuhilfenahme von Ulis Diagrammen noch nicht verstehen können. von uli.brueggemann » 30.04.2009, 11:36 Rudolf hat geschrieben:Ich muss allerdings gestehen, dass mir die Begrifflichkeiten immer noch nicht ganz klar geworden sind. Schade, aber es sollte irgendwann doch klappen Muss gestehen, dass auch ich eine Zeit benötigt habe, um das Thema Phase einigermaßen zu verstehen. Rudolf hat geschrieben:Ich meine aus Gerts Ausführungen und deinem White Paper Thoughts About Crossovers verstanden zu haben, dass im Idealfall die Gruppenlaufzeit = 0 ist. Dies wäre dann der Fall, wenn der gesamte Frequenzbereich ohne Phasendrehungen übertragen würde. Ideal ist eine Übertragung 1:1. Das bedeutet unveränderte Übertragung aller Amplituden und keinerlei Phasendrehungen. Das bedeutet nicht notwendigerweise GLZ=0. Eine GLZ>0 wäre dann schlichtweg ein Delay der hier angenommenen idealen 1:1 Übertragung. Rudolf hat geschrieben:Der "Normalfall" aber scheint zu sein, dass nicht einmal eine konstante Gruppenlaufzeit gegeben ist, vor allem dann nicht, wenn man Stereo hört und also Phasenverschiebungen infolge kleiner oder großer Abweichungen der Phasenlagen beider Lautsprecher hinzukommen (Paarungleichheit). Der Raum tut sein Übriges, die Phasenlagen (und natürlich auch den Frequenzgang) noch weiter divergieren zu lassen. Bereits unabhängig von Paarungleichheit und Raum bleibt die GLZ nicht konstant. Die XOs als auch die Treiber erzeugen Phasenverschiebungen. Die Addition der Treiber ebenfalls. Rudolf hat geschrieben:Wenn ich es richtig verstanden habe, ist es das Ziel digitaler Korrektursysteme, sowohl die Amplituden des Frequenzgang zu linearisieren als auch die Phasenlagen (am Hörplatz) miteinander in Einklang zu bringen. Das Ziel "herkömmlicher" Spülmittel ähh Korrektursysteme ist es den Amplitudengang zu linearisieren. Das ist relativ einfach. Die Korrektur der Phasenlagen ist ein spezielles Thema für sich, sie ist nicht allgmein üblich. Rudolf hat geschrieben:Am einfachsten scheint mir die Phasenkorrektur zu funktionieren, indem man die hohen Frequenzen solange verzögert, bis sie mit den niedrigen Frequenzen in Harmonie (= gleicher Phasenlage) sind. Denn die niedrigen Frequenzen haben bei "falscher" Phasenlage aufgrund ihrer Schwingungsdauer die größten Zeitabweichungen. Der einzige Nachteil ist, dass das gesamte, nunmehr phasenkorrigierte Signal etwas später an unser Ohr gelangt. Schlecht eigentlich nur bei Videos, aber lässt sich zum Ausgleich nicht auch einfach das Bild "delayen"? Das ist gewissermassen eine populäre Erklärung, mathematisch gesehen nicht unbedingt korrekt. Siehe nachfolgend. Klar ist aber, dass man ein Delay in Kauf nehmen muss, wenn man die Phasen weitgehend korrigieren will. Rudolf hat geschrieben:Wieso aber nun kann man die Phasenkorrektur auf unterschiedliche Weise durchführen? Plötzlich tauchen Begriffe wie minimum-, exzess- und linearphasige Korrektur auf und die eine scheint dabei "besser" als die andere zu sein? In welcher Beziehung stehen diese offensichtlich unterschiedlichen Korrekturverfahren zu dem von mir skizzierten? Handelt es sich z.B. bei der Darstellung der minimum- und exzessphasigen Sprungantwort um eine mathematische "Reduktion" einer realen, wirren Sprungantwort auf ihre beiden Extreme? Ich bin ganz ehrlich, ich habe dies auch unter Zuhilfenahme von Ulis Diagrammen noch nicht verstehen können. Nehmen wir mal an, die Reaktion des kompletten Systems ist "wirr". Nun kennen wir z.B. aus dem Verhalten von realen Filtern (z.B. RC-Netzwerk bei XOs) so einiges. Z.B. dass ein schlichtes RC-Glied minimalphasig reagiert. Und so hat sich bei der Beschreibung der realen Welt eingebürgert, das wirre System in seine Komponenten aufzuspalten und jede Komponente für sich zu betrachten: Anteil Minimalphase: damit lässt sich der Frequenzgang sauber beschreiben und auch korrigieren. Achtung! Die Inverse einer Minimalphase ist wiederum minimalphasig. Das bedeutet dann eben nicht ein einfaches Verzögern z.B. hochfrequenter Anteile. Das Faltungsergebnis aus Signal und Korrektur verschiebt sich nicht = kein delay. Deshalb hat man eben angenommen dass eine Amplitudenkorrektur das Mass aller Dinge ist und dass der Vorteil = kein Delay (durch den Filterprozess) überwiegt. Anteil Exzessphase: hierin steckt das Wissen über den zeitlichen Ablauf, so z.B. dass der HT vor dem MT vor dem TT spielt. Die Exzessphase verändert nicht die Amplitude = Allpass. Die Korrektur der Exzessphase bedingt ein delay. Macht es Sinn die Exzessphase zu korrigieren? Wo man doch immer nachlesen kann, dass man Phasenverschiebungen nicht hört? Ja es macht Sinn. Wir haben ja zwei Ohren und die Frage ist ,ob sich links/rechts unterschiedliche Phasenverschiebungen = Zeitverläufe ergeben. Der Vorteil des Aufspaltens: Minimalphase und Exzessphase lassen sich mit unabhängigen Zielvorgaben und Verfahren korrigieren. Z.B. mit unterschiedlicher frequenzabhängiger Fensterung. Die Korrektur ergibt sich dann wieder durch Zusammenführen der Teilkorrekturen. Meine Vermutung war anscheinend richtig, dass Minimum- und Exzessphase nichts anderes sind als eine mathematische Zerlegung der "normalen" Sprungantwort in eine zeitlich gesehen "erste" und "letzte" Sprungantwort. Die erste Sprungantwort (Minimumphase) enthält alle Informationen über den Frequenzgang (warum aber keine über die Phasenlage?), während die zweite Sprungantwort alle Informationen über die Phasenlage (aber keine über den Frequenzgang?) beinhaltet. Wie ist dies zu erklären (sie unterscheiden sich doch mehr oder weniger nur durch ihre zeitliche Positionierung auf der x-Achse)? Falls ich dies richtig kapiert habe, werde ich wohl ein ernstes Wörtchen mit meinem Lyngdorf reden müssen. Denn hinter dem vollmundigen Begriff der "minimumphasigen Korrektur" verbirgt sich nach meinem jetzigen Verständnis wohl nur eine - wenngleich verdammt gute - automatisierte Frequenzgangglättung (Equalizing). Was im Übrigen auch erklärt, weshalb ich bei der Einbindung von Subwoofern die Abstände zwischen Hauptlautsprecher und Subwoofer numerisch eingeben muss (damit nämlich die Signale der Mains entsprechend verzögert werden); bei einer zusätzlichen "exzessphasigen Korrektur" müsste diese Angabe meines Erachtens entfallen können, da die durch die Entfernungsdifferenz verursachten Phasenverschiebungen in der zugehörigen, exzessphasigen Sprungantwort enthalten sein müssten. von gto » 30.04.2009, 20:43 Rudolf hat geschrieben: Denn hinter dem vollmundigen Begriff der "minimumphasigen Korrektur" verbirgt sich nach meinem jetzigen Verständnis wohl nur eine - wenngleich verdammt gute - automatisierte Frequenzgangglättung (Equalizing). Das hatten wir aber doch schon mal. http://allabout-hifi.magnetofon.de/inde ... l#msg10879 Interessant wären IMHO eher die Einflüsse durch die Korrektur. Ich versteh ja nix von der Signaltheorie, wenn mir aber jemand erklärt wie ich was messen/einstellen/darstellen muss und dann die Ergebnisse entsprechend interpretieren kann, dann mach ich das. Denke FuzzMeasure hätte dafür alles nötige. Nochmals die Bitte um die Ergänzung Deiner obigen Diagramme mit der jeweiligen Mikrophonposition. Oder sind das simulierte Kurven ? von uli.brueggemann » 02.05.2009, 19:05 Kienberg hat geschrieben:nochmals die Bitte um die Ergänzung Deiner obigen Diagramme mit der jeweiligen Mikrophonposition. Oder sind das simulierte Kurven ? Alle diese Kurven haben dieselbe Basis, eine Aufnahme mit dem Mikro am Hörplatz. Dabei wird ein Sweep aufgenommen und mathematisch (durch Faltung mit einer zugehörenden Inversen) in eine Pulsantwort umgerechnet. Diese hat eine entsprechend lange Dauer und daraus wird die Pulsantwort herausgeschnitten. Ich mach das üblicherweise mit Acourate so dass vor dem Hauptpuls 6000 samples davorliegen und der gesamte Ausschnitt 65536 samples lang ist. Das sind ca. 1.4 sek bei 48 kHz Samplerate. Demzufolge findet der reale und ansonsten unbearbeitete Pulse zum Zeitpunkt 0.125 sek statt. Die 65536 entsprechen 2 hoch 16 und das ist gut für eine schnelle FFT. Wenn nun die minimalphasige Antwort berechnet wird (die den Amplitudengang berücksichtigt, aber auch Phasenänderungen beinhaltet, welche wie das Wort schon sagt minimalst sind [oder kann man das noch mehr steigern?]) dann ergibt sich das Ergebnis als Ereignis um das Sample 0. Wohingegen die Linearphase in der Mitte symmetrisch bei Sample 32768 liegt. Die Exzessphase bleibt da wo sie hingehört bei Sample 6000. Man kann übrigens mit dem Amplitudengang auch noch mixed phase rechnen und den Pulse irgendwo zwischen 0 und 65535 beliebig hinlegen. Ist nur für den Guru der hier noch mitliest. Der weiss dann auch was er damit tun kann. Also nicht durch den Vorlauf von 6000 Samples verwirren lassen. In einem rein kausalen minimalphasigen System passiert vor dem Hauptpuls nichts. Allerdings spielen Leute wie Gert ja auch mit Allpässen, und dann fängt so ein System doch möglicherweise mit Einschwingern an. Diese einfach wegzuschneiden kann nun mal falsche Rechnergebnisse liefern. Nehmen wir nun mal an dass der reale Puls nun in Minimalphase (sample 0) und Exzessphase (sample 6000) zerlegt ist. Die Faltung (convolution) beider Signale ergibt wieder das reale Signal und zwar unverändert zum Zeitpunkt sample 6000. Wie schon bemerkt wurde: die Minimalphase beschreibt den Amplitudengang vollständig. Und in der Exzessphase steckt das restliche Zeitgeschehen. Beispiel: ein Tieftöner mit minimalphasiger Reaktion und einer minimalphasigen Frequenzweiche wird zusammen mit einem Breitbänder betrieben. Dessen Reaktion und XO sind ebenfalls minimalphasig. Die Summe aus beiden sind es jedoch nicht mehr. Der Hochtöner/Breitbänder spielt üblicherweise vor dem Tieftöner. Es kommt nun die Exzessphase ins Spiel die genau diesen Effekt beschreibt. Rudolf hat geschrieben:Die erste Sprungantwort (Minimumphase) enthält alle Informationen über den Frequenzgang (warum aber keine über die Phasenlage?), während die zweite Sprungantwort alle Informationen über die Phasenlage (aber keine über den Frequenzgang?) beinhaltet. Wie ist dies zu erklären (sie unterscheiden sich doch mehr oder weniger nur durch ihre zeitliche Positionierung auf der x-Achse)? Es ist vielleicht dadurch einfach vorstellbar, dass man einmal annimmt, identische Frequenzgänge erzeugen zu können, die jedoch vom Zeitverhalten alle unterschiedlich aussehen. Einfachster Fall: ein Sweep von tiefen zu hohen Frequenzen und derselbe Sweep nun umgekehrt von hohen zu tiefen Tönen abgespielt. Die FFT liefert in beiden Fällen identische Frequenzgänge! Obwohl das zeitlich was völlig anderes ist! Und egal wie nun ein beliebiges zeitliches Verhalten sich darstellt, es lässt sich in Minimal- und Exzessphase zerlegen. Alle Minimalphasen desselben Frequenzganges sind identisch während alle Exzessphasen unterschiedlich sein können. Eine Phasenänderung in einem kausalen System bedeutet nun eine Zeitänderung. Die minimalste Zeit beginnt immer bei sample 0, daher liegt die Darstellung auch da vorne. Ich hoffe, diese "populärwissenschaftliche" Darstellung klärt die Frage nun letztendlich. Rudolf hat geschrieben:Falls ich dies richtig kapiert habe, werde ich wohl ein ernstes Wörtchen mit meinem Lyngdorf reden müssen. Denn hinter dem vollmundigen Begriff der "minimumphasigen Korrektur" verbirgt sich nach meinem jetzigen Verständnis wohl nur eine - wenngleich verdammt gute - automatisierte Frequenzgangglättung (Equalizing). Richtig. Vielleicht etwas zu meiner Herkunft. Früher hatte ich mal das RCS2.0 von TacT dann das RCS2.2. Aufgrund diverser Diskussionen über Probleme damit, bin ich dazu gekommen, das System einfach mal zu analysieren. Und siehe da, ganz klar nur eine minimalphasige Korrektur. (Übrigens hab ich dazu dann mal eine Freeware unter dem Namen GoodVibrations geschrieben um diverse Fehler und Probleme des RCS zu beheben, es gibt wohl immer noch eine Gemeinde, die damit Filter für das RCS berechnet, wenn auch minimalphasig, weil die Rechnerstruktur mit Multiratefiltern nichts anderes erlaubt). Als sich dann Peter Lyngdorf von TacT gelöst hat, hatten wir beide auch so einige Diskussionen zur richtigen Korrektur. Nun hat er sich Jes Moosgard als GF geholt, der seinerseits das Ziel verfolgt, den Power Response zu korrigieren (so was wie die Integration aller Frequenzgänge über den Raum verteilt). Daher auch die diversen Messungen an diversen Positionen im Raum (was auch Audyssey wegen Home Theatre verfolgt). Nun wissen wir, siehe oben, dass sich alle gemessenen Frequenzgänge in minimalphasiger Darstellung prima miteinander vermengen lassen, weil die Zeit kaum eine Rolle spielt. Es wird allerdings nun praktisch unmöglich, auch das zeitliche Geschehen von diversen Messungen miteinander zu verarbeiten. Phasenbabylon. Dies erklärt zur Ehrenrettung von Lyngdorf, warum sie die Exzessphase nicht betrachten. Was trotzdem bedeutet, dass nur minimalphasig korrigiert wird. Was wiederum die besagte reine Frequenzgangglättung bedeutet. uli.brueggemann hat geschrieben:Eine Fourier-Analyse einer Pulsantwort zeigt den Frequenzgang im eingeschwungenen Zustand ! Musik ist aber kein eingeschwungener Zustand. Demzufolge ist das schlichte Glätten eines Frequenzgangs z.B. per 1/n Oktavanalyse nicht wirklich richtig. Musik ist aber auch eingeschwungender Zustand. Wie wird das von der AAT (= Acourate Audio Toolbox) beruecksichtigt? uli.brueggemann hat geschrieben:- Zeitfenster: ein Puls der Länge 10 ms erlaubt keine Aussage zu Frequenzen unterhalb von 100 Hz. Für 1 Hz sollte man schon 1 Sekunde Pulslänge haben. Eigentlich sind mindestens zwei Frequenzzyklen erforderlich. Also eher 2 sek oder mehr für 1 Hz. Problem daraus: So ein breites Fenster enthält aber nun z.B. 2000 und mehr Schwingungen mit 1 kHz. Oder 20000 ... bei 10 kHz. Lösung: die Auswertung des Pulses muss per frequenzabhängiger Fensterbreite erfolgen. Was die meisten Audioprogramme seltsamerweise nicht tun. Das FDW (frequency dependant windowing) betrachtet also eine einstellbare Anzahl von Zyklen je Frequenz. Das ergibt andere Kurven und Frequenzgänge Verwendet AAT FDW? Wenn ja: Fuehrt dies nicht "einfach" dazu, dass AAT bis zu einer bestimmten unteren Grenzfrequenz (abhaengig vom Abstand der Lautsprecher zu Begrenzungsflaechen — siehe naechsten Paragraphen) den Raumeinfluss ausblendet (sprich: Freifeld-Frequenzgang ermittelt) und so "nur" den Frequenzgang des Lautsprechers linearisiert? Haette der Kauf ordentlich konstruierter Lautsprecher nicht zum selben Ergebnis gefuehrt (so wie z.B. in Andys Fall mit seinen O300)? Ist AAT also "nur" eine Lautsprecherkorrektur anstatt einer Raumkorrektur? uli.brueggemann hat geschrieben:Preisfrage: wenn das Ohr nun im Raum einen Basston hört, gibt es den dann ohne Reflektionen? Nein. Definitiv nicht. Selbst wenn wir Wellenlaengen kleiner als die Raumabmessungen betrachten, verfaelschen erste schallstarke Reflexionen das Messergebnis. Da waere in erster Linie die Bodenreflexion, die z.B. bei ca. 1.8ms Verzoegerung zum Direktschall das Messergebnis erst ab 550Hz gueltig werden laesst. Wird dies von AAT beruecksichtigt? von uli.brueggemann » 05.05.2009, 13:51 markus76 hat geschrieben:Musik ist aber auch eingeschwungender Zustand. Wie wird das von der AAT (= Acourate Audio Toolbox) beruecksichtigt? Hallo Markus, natürlich gibt es auch eingeschwungene Zustände. Trotzdem behaupte ich mal dass das irgendwie eher selten der Fall ist. Der schlimmste Fall wäre vermutlich das Anhören reiner Sinustöne. Nun ist es aber interessant sich mal anzuschauen was passiert wenn man solche Töne spielt. Dabei gibt es logischerweise auch einen Anfang und ein Ende (möglicherweise nach lngerer Zeit). Es zeigt sich dass hierbei Ein- und Ausschwingvorgänge inkl. überhöhter Amplitude auftreten. Und man kann sich dann die Frage stellen: hört das Ohr solches oder nicht? Wird ein überhöhter Effektivwert wahrgenommen oder nicht? markus76 hat geschrieben:Verwendet AAT FDW? Wenn ja: Fuehrt dies nicht "einfach" dazu, dass AAT bis zu einer bestimmten unteren Grenzfrequenz (abhaengig vom Abstand der Lautsprecher zu Begrenzungsflaechen — siehe naechsten Paragraphen) den Raumeinfluss ausblendet (sprich: FreifeldFrequenzgang ermittelt) und so "nur" den Frequenzgang des Lautsprechers linearisiert? Haette der Kauf ordentlich konstruierter Lautsprecher nicht zum selben Ergebnis gefuehrt (so wie z.B. in Andys Fall mit seinen O300)? Ist AAT also "nur" eine Lautsprecherkorrektur anstatt einer Raumkorrektur? Nicht notwendigerweise. Zum Beispiel hör ich in einem Raum wo ich auf einer Couch sitze. Daneben weitere Sitzgelegenheiten. Ein Tisch, ... und anderes mehr. D.h. dass schon reichlich Reflektionen unabhängig von den Wänden ins Spiel kommen. Selbst vom LS. Das FDW ist parametrierbar. D.h. je nach Fensterbreite fliessen weniger oder mehr Frequenzzyklen in die Ermittlung mit ein. Da der Übergang von direktem Schall zu Schall inklusive Reflektionen nicht genau definierbar ist, können wir nicht von einer reinen LS-Korrektur sprechen. (Im wahren Sinn des Wortes wird übrigens auch nicht der Raum korrigiert) Ansonsten sollte trotzdem ein ordentlich konstruierter LS verwendet werden. Da stimm ich voll zu. Welcher dann in einem Badezimmer auch nicht notwendigerweise nett klingt. markus76 hat geschrieben:Selbst wenn wir Wellenlaengen kleiner als die Raumabmessungen betrachten, verfaelschen erste schallstarke Reflexionen das Messergebnis. Da waere in erster Linie die Bodenreflexion, die z.B. bei ca. 1.8ms Verzoegerung zum Direktschall das Messergebnis erst ab 550Hz gueltig werden laesst. Wird dies von AAT beruecksichtigt? Das Beispiel ist ein gutes Argument für frühe Reflektionen. Es empfiehlt sich mal was über den Allison-Effekt zu lesen welcher bereits bei niedrigeren Frequenzen auftritt. Angenommen der Basstreiber ist 60 cm über dem Boden (oder neben der Seitenwand). Dann wird der Schall auch in Richtung Treiber zurückreflektiert und addiert sich zum Schall der abgestrahlt wird. Der Weg = 120 cm enspricht einer Wellenlänge von lambda/2 = 141 Hz. Bei dieser Frequenz tritt Auslöschung auf. Unabhängig vom Hörabstand. Bei Deinem Beispiel sind mit 1.8 ms Verzögerung ist die erste Auslöschung bereits bei ca. 275 Hz, der Abstand zur schallharten Reflektionsfläche ca. 30 cm. Der zugehörige Frequenzgang (Dirac mit reflektiertem Dirac, 1.8 ms, -6 dB Abschwächung): zeigt einen typischen Kammfiltereffekt. Das Messergebnis ist hier eindeutig beeinflusst, jedoch insgesamt voll gültig (und nicht erst ab ...). Je nach vorgegebener Parametrisierung für das FDW erfolgt nun eine anteilige Berücksichtigung. Bei einem Wert von 10 Zyklen sieht Acourate ab ca. 5600 Hz den Direktschall allein. Wenn dann da der Direktschall ok ist würde auch nichts korrigiert. Wenn der LS nur suboptimal ist dann wird eben der Direktschall an die vorgegebene Zielkurve angepasst. von markus76 » 05.05.2009, 15:08 uli.brueggemann hat geschrieben:Es zeigt sich dass hierbei Ein- und Ausschwingvorgänge inkl. überhöhter Amplitude auftreten. Und man kann sich dann die Frage stellen: hört das Ohr solches oder nicht? Wird ein überhöhter Effektivwert wahrgenommen oder nicht? Das kommt auf die Frequenz an. uli.brueggemann hat geschrieben:Zum Beispiel hör ich in einem Raum wo ich auf einer Couch sitze. Daneben weitere Sitzgelegenheiten. Ein Tisch, ... und anderes mehr. D.h. dass schon reichlich Reflektionen unabhängig von den Wänden ins Spiel kommen. Selbst vom LS. Weswegen man darauf achten sollte, dass sich innerhalb des Stereodreiecks und auch in gewissem Abstand ausserhalb keine groesseren Gegenstaende befinden – das Equipment gehoert fuer mich z.B. auf keinen Fall zwischen die Lautsprecher, wenn man hochwertige Wiedergabe anstrebt. uli.brueggemann hat geschrieben:Je nach vorgegebener Parametrisierung für das FDW erfolgt nun eine anteilige Berücksichtigung. Bei einem Wert von 10 Zyklen sieht Acourate ab ca. 5600 Hz den Direktschall allein. Wenn dann da der Direktschall ok ist würde auch nichts korrigiert. Wenn der LS nur suboptimal ist dann wird eben der Direktschall an die vorgegebene Zielkurve angepasst. Wo setzt Du die Grenze, bis zu der eine Linearisierung der Raumantwort durch Veraenderung des Direktschalls Sinn macht? Und, ab welcher Frequenz ist unser Gehoer in der Lage den verbogenen Direktschall wahrzunehmen, auch wenn die Summe aus Direktschall und Raumantwort per elektronischer "Raum"korrektur begradigt wurde? von uli.brueggemann » 05.05.2009, 16:14 markus76 hat geschrieben:Das kommt auf die Frequenz an. Markus, ich bitte Dich Dein Wissen über die Frequenzen mit uns zu teilen. markus76 hat geschrieben:Weswegen man darauf achten sollte, dass sich innerhalb des Stereodreiecks und auch in gewissem Abstand ausserhalb keine groesseren Gegenstaende befinden – das Equipment gehoert fuer mich z.B. auf keinen Fall zwischen die Lautsprecher, wenn man hochwertige Wiedergabe anstrebt. Stimm ich zu. Allerdings hat nicht jeder (auch ich nicht) den nötigen Platz für die Schaffung eines idealen zweckbestimmten Hörraumes. markus76 hat geschrieben:Wo setzt Du die Grenze, bis zu der eine Linearisierung der Raumantwort durch Veraenderung des Direktschalls Sinn macht? Und, ab welcher Frequenz ist unser Gehoer in der Lage den verbogenen Direktschall wahrzunehmen, auch wenn die Summe aus Direktschall und Raumantwort per elektronischer "Raum"korrektur begradigt wurde? a) bis fs/2. Ich teile nicht die Meinung dass Raumkorrektur z.B. nur bis 500 Hz Sinn macht. Nach zig Messkurven diversester Systeme bis hin zu Studio wundere ich mich immer wie verbogen Frequenzgänge sein können. Und wenn diese nun auch im Hochtonbereich begradigt werden können, warum nicht? Wenn der Direktschall schon nicht ok ist UND auch das Zeitverhalten zwischen den Kanälen nicht passt, dann sollte das Ziel einer Verbesserung allemal erlaubt sein. Das Verbiegen des Direktschalls ist nichts Negatives, man kann ja auch etwas geradebiegen. b) es gibt diverse Zielfunktionen - Optimierung Frequenzgang des LS - Begradigung des Frequenzganges im Raum - zusätzliche Optimierung des Zeitverhaltens - Angleichung der Pulsantworten auf Identität Grundsätzlich ist alles durch die Kompromiss-Brille zu sehen. Es gibt keine allgemeingültige optimale Lösung! Ich habe es erlebt, dass perfekt gematchte LS nach Frequenzgangkorrektur tonal richtiger geklungen haben, jedoch die Abbildungspräzision weg war. Und ich vertrete die Meinung, dass die Angleichung der Pulsantworten ein besseres Hörerlebnis bieten kann trotzdem man dabei in Kauf nehmen muss, dass der begradigte Frequenzgang nicht mehr gerade ist. Deshalb versuche ich all das zusammen zu optimieren. Eine rein minmimalphasige Korrektur (die z.B. den Direktschall üblicherweise verbiegt und zwar unterschiedlich je Kanal) ist für mich keine Lösung. Die Frage "ab welcher Frequenz?" ist als solche für mich leider nicht beantwortbar. Kennst Du irgendeine qualifizierte Literaturstelle hierzu? Eine letzte Bemerkung: Ich traue keinen Ein-Knopf-Raumkorrektur-Lösungen. Ebensowenig nicht nachvollziehbar geglätteten Kurven. Daher möchte ich stets über das Zeitsignal vor und auch nach der Korrektur Bescheid wissen und auch reale ungeglättete Amplitudengänge sehen. Das ist erst einmal etwas mühsamer. Aber hilft mehr für das Verständnis. In diesem Sinn ist auch Acourate zu sehen. Es kann jeder seine eigenen Parameter definieren und sehen als auch hören was dabei rauskommt. von markus76 » 05.05.2009, 16:41 uli.brueggemann hat geschrieben:ich bitte Dich Dein Wissen über die Frequenzen mit uns zu teilen. Hi Uli, evtl. haben wir aneinander vorbeigeredet, aber jede Resonanz beeinflusst die Amplitude. Die Frage ist, wie dies die Reproduktion ueblicher Tonkonserven stoert. Da faellt mir der Bassbereich ein, da hier in kleinen Raeumen der Frequenzabstand zwischen einzelnen Moden sehr gross wird. uli.brueggemann » 05.05.2009, 17:13 Ein Beispiel für das, was ich meine. Gegeben eine Pulsantwort im Raum. Mit einer bestimmten Amplitude bei einer bestimmten Frequenz. Nun dazu mal ein Sinusburst erzeugt mit derselben Frequenz, Länge 0.2 sek (als Musiksignal) und geeignetem Fade-In und Fade-Out, also nicht plötzliches Umschaten der Sinus-Amplitude. Und was daraus wird wenn man das Signal mit der Pulsantwort des Raumes faltet: Preisfrage: was nimmt das Ohr wahr und wie stimmt die Realität mit der Amplitude im Frequenzgang überein und warum? Wir nehmen einen Sinusburst im Raum wahr Ich denke das Beispiel hilft uns nicht weiter. Aber nehmen wir doch 'mal einen E-Bass. Hier hoere ich (leider) immer das modale Geschehen in meinem Raum heraus. Hierbei handelt es sich aber um kein transientes Phaenomen, sondern um ein Phaenomen im eingeschwungenen Zustand. uli.brueggemann hat geschrieben:Die Frage "ab welcher Frequenz?" ist als solche für mich leider nicht beantwortbar. Kennst Du irgendeine qualifizierte Literaturstelle hierzu? Ein Anfang (detaillierter im zugehoerigen Buch "Sound Reproduction"): http://www.aes.org/e-lib/download.cfm?I ... ame=harman Weitere hilfreiche Literatur: http://www.hifi-forum.de/viewthread-72-2045.html Eine Teil-Auswertung: http://www.casakustik.de/forum/index.ph ... 199.0.html von uli.brueggemann markus76 hat geschrieben: uli.brueggemann hat geschrieben:Preisfrage: was nimmt das Ohr wahr und wie stimmt die Realität mit der Amplitude im Frequenzgang überein und warum? Wir nehmen einen Sinusburst im Raum wahr Ich denke das Beispiel hilft uns nicht weiter. Aber nehmen wir doch 'mal einen E-Bass. Hier hoere ich (leider) immer das modale Geschehen in meinem Raum heraus. Hierbei handelt es sich aber um kein transientes Phaenomen, sondern um ein Phaenomen im eingeschwungenen Zustand. Markus, ich stimme Dir zu, dass die Raummoden nicht durch eine Korrektur voll ausser Kraft zu setzen sind. Überhöhte Amplituden lassen sich absenken. Totalauslöschungen aber könnten nicht beseitigt werden, selbst wenn der Woofer 100 mm Hub hätte und ein Kraftwerk für den Verstärker allein arbeitet. Also geht es doch darum, die Peaks hörbar zu machen und die Dips nicht wie wild zu verstärken. Und da kommt doch der Sinusburst wieder ins Spiel. Er ist schlichtweg ein Modell. Und damit lässt sich das Ein- und Ausschwingverhalten untersuchen. Wenn das für jede Frequenz gemacht wird ist ein anderer Frequenzgang rekonstruierbar. Es zeigt sich, dass die Peaks wie vorher da sind, wohingegen die Dips angehoben sind; viel mehr als bei einer üblichen 1/n Oktavanalyse. Das bedeutet, dass bei der Invertierung (Soll- minus Ist-Frequenzgang) nunmehr die Löcher nicht mehr zuviel verstärkt werden, die Peaks hingegen vernünftig abgesenkt werden. Resultat: eine verbesserte Wiedergabe trotz Raummoden, weil das Frequenzgemisch gleichmässiger wird. von markus76 » 06.05.2009, 13:56 Hallo Uli, auf Anhebungen modaler Dips im Bassbereich wuerde ich verzichten (oder habe ich Deine Ausfuehrung missverstanden und es findet keinerlei Anhebung in AAT statt?), denn je mehr Energie man in solch einen modalen Dip hineinpump, umso mehr wird abgesaugt. Der m.E. richtige Weg ist das Einbringen zusaetzlicher Schallquellen (Multisub). uli.brueggemann hat geschrieben:Ich habe es erlebt, dass perfekt gematchte LS nach Frequenzgangkorrektur tonal richtiger geklungen haben, jedoch die Abbildungspräzision weg war. Wurde dies von mehreren Personen so wahrgenommen? Gab es noch weitere Veraenderungen im Raum ausser der Korrektur? War das Verhaeltnis von direktem zu reflektiertem Schall in diesem Raum gross oder eher klein? von uli.brueggemann » 06.05.2009, 14:52 markus76 hat geschrieben:auf Anhebungen modaler Dips im Bassbereich wuerde ich verzichten (oder habe ich Deine Ausfuehrung missverstanden und es findet keinerlei Anhebung in AAT statt?), denn je mehr Energie man in solch einen modalen Dip hineinpump, umso mehr wird abgesaugt. Der m.E. richtige Weg ist das Einbringen zusaetzlicher Schallquellen (Multisub). Einverstanden, ich seh das genauso. Du hast meine Ausführung wohl missverstanden. Wenn man schlichtweg einen Frequenzgang nimmt und invertiert geht es im Prinzip schief. Acourate rechnet einen neuen Frequenzgang als Ausgangsbasis für die Korrektur. Merke: rechnet und nicht geschätzt. Und dieser hat drastisch kleinere Dips, behält jedoch die Peaks. Somit ist die Invertierung auch für das Ohr angenehm. Dafür gibt es natürlich Anwender als Zeugen die aber als biased betrachtet werden können uli.brueggemann hat geschrieben:Ich habe es erlebt, dass perfekt gematchte LS nach Frequenzgangkorrektur tonal richtiger geklungen haben, jedoch die Abbildungspräzision weg war. Typischerweise nehmen bei Korrekturen nur wenige Personen teil. Ein System (Kharma Exquisite Midi) war dabei sehr deutlich. Es wurde rein mit/ohne Korrektur ohne weitere Änderung verglichen. Das Verhältnis direkt/reflektiert war normal. Im Gegenzug wurde (bei anderen Personen) eine Angleichung der Pulsantworten (nach vorheriger Frequenzgangkorrektur) positiver bewertet obwohl dabei der Frequenzgang nicht mehr "optimal" bleibt (there is no lunch for free [except I'm the food]). Für mich passt das hervorragend in meine Überzeugungswelt. Das Problem mit der Psychoakustik ist, dass auch viele Antworten gefunden werden/wurden auf Fragen, die falsch gestellt sind. Für umfangreiche Tests fehlen Möglichkeiten und Geld. Also geh ich pragmatisch vor und nehme Hörräume so wie sie eben sind und überleg mir was denn plausibel für mich ist. Das "Richtige" kann es nicht geben, es sei denn es wäre mathematisch exakt und das ist in der "normalen" Realität wiederum nicht darstellbar. Da helfen selbst psychoakustische Fakten nicht. von gto » 06.05.2009, 15:54 Das mit nicht über 500 Hz am Direktschall zu manipulieren kommt bei mir nicht nur von Google, sondern entspricht meinem momentanem pers. Erfahrungsstand. Mit der Einschränkung, das natürlich nicht jeder Lust und Möglichkeiten hat seine Anlage + Raum soweit zu bringen, das dies nicht mehr nötig ist und dann ev. eine Korrektur über einen weiteren Frequenzbereich trotzdem ein besserer Kompromiss sein mag. Wobei sich meine Korrekturerfahrungen bislang nur auf Systeme ohne Phasenkorrektur stützen. Inwieweit das in meinem Setup noch etwas positiv ändern würde, vermag ich nicht zu beurteilen, das müsste man mal testen. Wie gesagt, wenn mir jemand durch entsprechende nötige Messungen hilft, dann ließe sich eventuell daraus diesbezügliche etwas lesen. Der FG ist bei mir IMHO am Hörplatz > 500 Hz ausreichend gut. Obwohl mit der Einmessung per DPA-1 der FG <500 Hz wesentlich besser aussieht, höre ich lieber ohne. uli.brueggemann hat geschrieben:zeigt das DPA-1 ungeglättete Frequenzgänge? Leider ist ohne Messequipment (Mikro, evtl. Vorverstärker, Soundkarte und PC) kaum was zu machen. Der Lyngdorf DPA-1 zeigt selber nix, ist ja nur ein Vorverstärker mit Wandler und Raumeinmessung RP. Ich messe mit FuzzMeasure Software, Hardware: MacBook, Interface: Lexicon Lambda, Mic: Behringer ECM 8000 Die FGs kann ich einstellen wie immer du sie zur Beurteilung brauchst. Was ich nicht weiß, noch nie damit beschäftigt, wie ich z.B eine korrekte Step Response messen muss. Weiters hat Fuzz für den FG denke ich alle nötigen Darstellungsoption,wie z.B. Excess Phase Respons usw. Es fehlt nur meinerseits am nötigen Wissen, um damit auch um zu gehen. Bislang habe ich nur die für RA-Maßnahmen nötigen Optionen im Griff und die beschränken sich zum Glück auf FG, NH und Wasserfälle. von uli.brueggemann » 06.05.2009, 16:46 gto hat geschrieben:Ich messe mit FuzzMeasure Software, Hardware: MacBook, Interface: Lexicon Lambda, Mic: Behringer ECM 8000 Ich kenne FuzzMeasure nur aus der Ferne, da MAC-Software. Allerdings hab ich auch gesehen, dass es die Swept Sine Deconvolution beherrscht. Das ergibt die Pulsantworten. Nun ist die Frage, ob diese auch exportierbar sind und das am besten in entsprechender Länge, z.B. 2°16 = 65536 samples. Alles, was es dann braucht sind die Pulsantworten aufgenommen mit Mikro am Hörplatz. Der logarithmische Sweep sollte zwecks gutem Signal-Rauschabstand lang sein, ich verwende z.B. immer 60 Sekunden. von uli.brueggemann » 07.05.2009, 12:04 Fujak hat geschrieben:... frage ich mich natürlich, ob ich mit Acourrate (oder mit BruteFir) ein deutlich besseres Ergebnis erzielen kann als mit dem Dinosaurier DRC. Bei den Antworten hoffe ich unter anderem natürlich auch auf Dich Uli, da ich mir vorstellen kann, dass Du als "Fachmann der ersten Stunde" auch vergleichende Erfahrungen mit DRC machen konntest. Da möchtest Du eine Antwort, bei der ich mich doch lieber in Bescheidenheit zurückhalten möchte. 1. Ich bin überzeugt, dass am Ende nur wirkliche Leistung zählt, was aber jeder doch selbst finden muss. 2. Es gibt nun diverse Systeme, und ich bin ein Anbieter davon. Es macht aber keinen Sinn, in vergleichende Werbung einzusteigen. Ich kann daher hier im Forum nur aufklärend wirken und über Grundlagen und hoffentlich auch Fakten berichten. Die Aussage, dass Acourate besser ist, hilft auch nicht wirklich. Solche ähnlichen Aussagen (jedoch nicht über Acourate) bekommst Du ebenfalls vom Wettbewerb. 3. DRC war vor Acourate (und vor marcV und vor GoodVibrations [Software von mir]) und ist in diesem Sinn ein Dinosaurier. Aber trotzdem besser als so manch andere neuen Produkte. Wenn man damit richtig umzugehen weiss, spielt man ebenfalls in der oberen Liga. 4. Denis Sbragion und ich kommunizieren auch von Zeit zu Zeit und tauschen sogar Ideen oder Codefragmente aus. Wobei ich darauf achte, dass Acourate nicht bloss eine kommerzielle Kopie von DRC ist, und auch Denis baut nicht einfach etwas von meinen Ideen ins DRC ein. Das Schlüsselwort hier ist Respekt. 5. Stichwort "deutlich besser": je besser ein System ist/wird, umso grösser der Aufwand für eine Verbesserung. Die Ergebniskurve wird immer flacher. Es gibt praktisch keine Quantensprünge. Aber reichlich physikalische Grenzen. Beispiel: Es ist Schützenfest, und man steht an der Strasse wo die Blaskapelle vorbeimarschiert. Es gibt keine Stereoaufnahme inkl. Korrektur, die das im Raum korrekt wiedergibt. Weil im Raum einfach nicht draussen ist. Ich wüsste nicht, wie man den Raumeinfluss bei unseren Systemen rausfiltert. Lösung: Als DRC Anwender hast Du ja Pulsantworten zur Verfügung. Es gibt die Möglichkeit zu testen. Dazu biete ich ja an, Filter zu rechnen und damit max. zwei wav-tracks zu bearbeiten, die Du dann ja hören und vergleichen kannst. Riesenaufwand für mich (wenn es keinen Spass machen würde ...). von uli.brueggemann » 07.05.2009, 20:51 Rudolf hat geschrieben:Damit müsste die Squeezebox / der Transporter die Korrekturfilter, die zuvor mit Acourate erzeugt wurden, in seinem DSP verarbeiten können (genauso wie dies z.B. in Foobar möglich ist). Vielleicht können uns Dieter oder Uli das etwas genauer erklären. Ich versuch es mal, obwohl ich es selbst nie probiert habe - weil nicht im Besitz einer Squeezebox: Die Squeezebox erhält ihre Info im allgemeinen vom Server der auf seinen Festplatten die Musik bereithält. Diese wird per Streaming über Ethernet oder WLAN an die SB geschickt. Das Plugin befindet sich auf dem Server! D.h., dass der Server die Filterarbeit durchführt, bevor er die Daten rausschickt. Klaro? Das heisst natürlich auch, dass wenn die SB oder der Transporter Musik aus dem Web lädt, diese wohl nicht gefiltert wird. Vielleicht übernimmt auch der Server diese Web-Arbeit. Dann würde das Filtern wieder klappen. Übrigens gibt es auch noch andere Plugins: Convolver für den Windows Mediaplayer oder VST. Oder auch für Foobar ist ein Plugin vorhanden. Einiges an Info hierzu gibt's in der Files Section im User Forum, die aber erst nach Anmeldung zugänglich ist. Einsatz von Acourate ohne FIR-Hardware von Kienberg Ich habe mich nun entschieden, die Acourate Audio Toolbox einzusetzten, ohne aber eine FIR-Hardware in meine Kette einzuschleifen. Nachdem ich feststellte, dass Convolven mittels Foobar auf einem CoreDuo bereits sehr schnell läuft, werde ich mir ein Script erstellen und damit in einem Rutsch alle meine gerippten CDs bearbeiten. Diese Files spiele ich dann direkt am Denon AVP A1 via USB ab. Das ist klar die klanglich beste Lösung und ich erspare mir eine weitere Kiste, dies auch deshalb, da die heutigen Soundkarten allesamt den Nachteil haben, Mehrkanallösungen eher zu behindern, es fehlt da einfach an Schnittstellen über die auch HD-Audio übertragen werden kann, zumal die, die auch Linux unterstützt. Nun, zum Erstellen dieses "Impulsfile" (meine einen File in der Art wie ihn mir Klaus für die FM 401 + SUB erstellte) erwerbe ich die Acourate Audio Toolbox bei Dir, soweit klar. Beim Studium Deiner Website ist mit allerdings das Vorgehen um zu diesem Impulsfile bzw. Korrekturfile zu gelangen, nicht ganz klar geworden. Ich bitte Dich daher um eine Empfehlung, wie da Vorzugehen ist, dazu habe ich die folgenden Fragen 1. Reicht zum Vermessen des Istzustandes das folgendes Equipment ? - Behringer-Mikro (kalibriert), Mikrophonständer etc. - Laptop unter Vista, Alesis IO|2 via USB da dran - Zur Messung (FG, RT etc) wird heute CARMA V3 da drauf eingesetzt 2. Kann ich durch Installation der Acourate Audio Toolbox auf diesem System nun den Korrekturfile erstellen oder muss ich auch LogSweep laufen lassen und erst dessen Output dann an die Toolbox als Input weiterleiten ? 3. Muss ich neben der Messung dem Programm noch weitere Parameter meiner Anlage mitgeben ? von Unicos » 08.07.2009, 21:57 Hallo Sigi, mit der HW ist wirklich so eine Sache. Also Stereo wirklich keine Frage da kann man digital durchschleifen, aber solange die 5.1 Geschichte a) mit dem digitalen aufbroeseln noch so umstaendlich ist b) die analoge Ansteuerung also AD/DA notwendig ist c) man eine kleines Kraftwerk braucht, um latenzarm DVD wiedergeben zu koennen d) HD noch ein Problem ist Finde ich diesen pragmatischen Ansatz eine echte Alternative. von Rudolf » 08.07.2009, 22:08 Kienberg hat geschrieben:Nachdem ich feststellte, dass Convolven mittels Foobar auf einem CoreDuo bereits sehr schnell läuft, werde ich mir ein Script erstellen und damit in einem Rutsch alle meine gerippten CDs bearbeiten. Hallo Sigi, weshalb ein batch- und kein realtime-convolving? Das Convolver-PlugIn für Foobar kann doch in den Signalweg eingeschliffen werden! Vorteil des batch-convolving wäre allerdings, dass ich die Dateien anschließend auch über meinen Sonos wiedergeben könnte. von Kienberg » 08.07.2009, 22:31 Das Convolver-PlugIn für Foobar kann doch in den Signalweg eingeschliffen werden! Genau das will ich ja vermeiden, Rudolf, also kein PC im Signalweg. Bei mir ist die USB-Disks direkt an den Denon angeflanscht, dieser ist also der Master und holt sich seine Daten von der Disk ab. Sicher, könnte der Denon nun Foobar seinerseits laufen lassen, würde ich es so machen ...kann er aber nicht, der hat eine Art Linux da drauf und ist für externe Routinen nicht vorbereitet. Dieser Weg geht aber halt nur bei Geräten, die als Master für USB-Platten gebaut sind, wird Dein Lyngdorf nicht können. von uli.brueggemann Um die Fragen beantworten zu können hab ich mir mal das CARMA besorgt. Kienberg hat geschrieben:1. Reicht zum Vermessen des Istzustandes das folgendes Equipment? Das Equipment reicht erst einmal soweit was die Hardware betrifft. Bezüglich CARMA hab ich aber Anmerkungen: - üblicherweise macht ein gewisser Vorlauf vor dem Pulspeak Sinn. Man kann das bei Carma zwar auf max. 100 Samples vorgeben, allerdings ist das doch weit von den 6000 Samples entfernt, die Acourate als Standard verwendet. - der Logsweep bei Carma ist sehr kurz. Ich glaub da allerdings nicht an eine gute Tieftonauflösung. Weiterhin wird bei langen Sweeps auch die Signal-to-Noise Ratio besser. - der Impuls kann als wav exportiert werden, allerdings ist dann die Auflösung nur 16 bit. - beim Export scheint der Pegel nicht normalisiert zu sein. Da muss dann zusätzlich nachnormalisiert werden, was jedoch möglich mit Acourate ist. Auf jeden Fall kann die Impulsantwort von Acourate gelesen werden. Dazu linke Seite als Pulse48L.wav exportieren, die rechte Seite als Pulse48R.wav. Nach dem Öffnen mit Acourate ist dann der Pulsvorlauf anzupassen und zu normalisieren. Die nötigen Schritte können wir dann gemeinsam später besprechen. Eine andere und vermutlich bessere Alternative ist das Programm AcourateLSR, frei downloadbar. Es erzeugt einen langen logsweep und berechnet nach dem Messen die Pulse Pulse48L/R.tri, die dann von Acourate verarbeitet werden. Allerdings setzt AcourateLSR voraus, dass die Soundkarte per ASIO-Treiber ansprechbar ist. Einfach mal testen ob es die Alesis IO 2 tut. Kienberg hat geschrieben:2. Kann ich durch Installation der Acourate Audio Toolbox auf diesem System nun den Korrekturfile erstellen oder muss ich auch LogSweep laufen lassen und erst dessen Output dann an die Toolbox als Input weiterleiten? Ja, Acourate braucht die Impulsdateien, egal woher sie kommen. Damit werden dann die Korrekturfilter berechnet. Das Programm kann auf demselben Rechner laufen. Kienberg hat geschrieben:3. Muss ich neben der Messung dem Programm noch weitere Parameter meiner Anlage mitgeben? Nein, nicht unbedingt. Es sei denn man möchte mit aktiven Weichen arbeiten und misst dann Chassis einzeln. Ich versteh es aber so dass Du nur einen Satz Stereokorrekturfilter für Foobar brauchst. Die Kalibrierdatei für Mikro macht logischerweise auch Sinn. von Kienberg » 10.07.2009, 21:03 Bei CARMA ist mir auch schon aufgefallen, dass die Messungen rel. stark voneinander abweichen, auch wenn man diese kurz nacheinander macht und nichts am Setup oder an der Raumgeometrie verändert wurde. Naja, Messungen erledige ich eh nur, um das Gewissen zu beruhigen, eine Entscheidung erfolgt bei mir immer nur durch Hören. Die Messungen werde ich also mit AcourateLSR durchführen, sollte es mit Vista am Laptop nicht gehen, kommt einer der WinXP-Rechner dran, dort gibt es ja den Asio4all-Treiber, der müsste es ja tun. von Rudolf » 11.07.2009, 21:25 Ich habe jetzt das USB-Interface US-144 von Tascam bestellt. Damit schlage ich zwei Fliegen mit einer Klappe: Aufgrund der Phantomeinspeisung kann ich den Tasam für mein Messmikro verwenden und ihn gleichzeitig als USBKonverter zum Abspielen verwenden. Da er das ASIO-Protokoll beherscht, eignet er sich sowohl aufnahmeseitig für Ulis Logsweep Recorder als auch wiedergabeseitig für foobar2000, um damit Musikdateien mit bis zu 24Bit/96kHz am Windows-Kernel vorbei über S/PDIF an den Lyngdorf DPA-1 weiterzureichen! (Dadurch erhält das Abspielen mittels foobar neben der Phasenkorrektur mit Acourate eine weitere Dimension.) Bevor ich jetzt mein Messmikro kalibrieren lasse, habe ich noch eine Frage an unsere Acourate-Eperten: An welcher Stelle im Recording/Convolution-Prozess wende ich die Mikro-Kalibrierungsdatei an? Muss diese ein bestimmtes Format aufweisen? Die Datei von Hifi-Selbstbau liegt im Textformat vor. Sie kann verwendet werden, allerdings müssen die Tabs zwischen Frequenz und Abweichung durch Leerzeichen ersetzt werden: 0.0 xyz 18.84 -0.55 19.95 0.08 21.13 0.66 22.39 1.07 23.71 1.24 25.12 1.35 ... 22050.0 xyz ... 24000.0 xyz Abspeichern als cal.txt. Weiter mit Ulis Worten: "Diese txt-Datei dann einlesen mit File - Read Target Curve [no für 65536 samples] und dann mit TD-Functions - Phase Extraction - minphase [0,0] in Minimalphase wandeln. Diese dann als miccal.dbl abspeichern. Dann kann die Datei in macro1 verwendet werden." Die Kalibrierungsdatei wird also im Macro 1 -> "Erstellung der Psychoakustischen Kurve" eingesetzt. von Fortepianus » Rudolf hat geschrieben:Bevor ich jetzt mein Messmikro kalibrieren lasse, habe ich noch eine Frage an alle Acourate-Eperten: An welcher Stelle im Recording/Convolution-Prozess wende ich die Mikro-Kalibrierungsdatei an? Du musst mit Acourate eine irgendwas.txt-Datei in ein Filter umrechnen, das sagt Dir Uli dann, wie das geht. Bei der Berechnung der Frequenz- und Phasengänge aus den Messfiles kann man dann das Korrekturfilter für's Mikro reinrechnen lassen. Die Filterberechnung mit Acourate geht in folgenden Schritten: 1. Den aufgenommenen Logsweep mit der Inversen falten, Resultat ist die Impulsantwort des Systems getrennt für links und rechts 2. Mit Ulis psychoakustischen Tricks wird daraus der Frequenz- und Phasengang des Systems berechnet (hier erfolgt die Mikrofonkorrektur) 3. Zielkurve erstellen 4. Unter 2. berechnete Kurven an 3. spiegeln 5. Filter berechnen Rudolf hat geschrieben:Muss diese ein bestimmtes Format aufweisen? Was soll ich den Jungs vom HiFi-Selbstbau mitteilen? Da der einzige wirkliche Experte (Uli) das offensichtlich gerade nicht gelesen hat, habe ich mal nachgeschaut: RudolfsMikro.txt mit folgendem Aufbau: erst f (z. B. 20.00) Leerzeichen dB (z.B. -6.65) neue Zeile neues Wertepaar Für Acourate muss das bei 0Hz beginnen. Physikalisch gesehen ist die Ausgangsspannung eines Mikros bei 0Hz natürlich 0, also -unendlich dB. Da schreibt man dann aber irgendwas rein, was eine einigermaßen glatte Kurve nach unten ergibt, der unterste Messwert von Icy-Medien ist 10Hz. Der oberste Messwert sollte bei der halben Samplingfrequenz liegen, also bei 48kHz Abtastrate bei der Messung muss der oberste Wert 24kHz sein. Von Icy kriegst Du aber glaube ich nur bis 22kHz, da musst Du halt Pi mal Auge extrapolieren. Abstände zwischen den Messwerten müssen nicht äquidistant sein. von uli.brueggemann » 13.07.2009, 15:03 Sieht so aus als sollt ich mal die Mikrokalibrierung direkt in AcourateLSR mit einfliessen lassen. Für Messungen mit BruteFIR gibts ja auch eine Lösung (Gert kennt sie ja schon). Alles kein Problem. Auch nicht bei Acourate. Theoretisch sollte das Mikro bei 0 Hz nicht -unendlich dB haben sondern 0 dB. Also z.B. 0.00000001 Hz eben 1:1 übertragen. Das mag de facto anders sein und es wäre auch schwierig in einer Kalibrierung zu messen. Aber es macht definitiv keinen Sinn, die Messung im niederfrequenten Bereich im Sinne einer Kalibrierung gegensinning zu boosten. Also besser bei 0 Hz auch den Betrag ansetzen der bei 10 Hz vorliegt. von Rudolf » 13.07.2009, 16:34 Ich stelle hier nochmals meine (bzw. Sigis) geplante Konstellation vor: • • Hardware: Rechner mit Windows XP (Vista), USB-Interface mit ASIOProtokoll, kalibriertes Messmikro, D/A-Wandler Software: AcourateLSR, Kalibrierungsdatei, Acourate, Foobar2000 mit Convolver-PlugIn Diese Lösung eignet sich sowohl zum Realtime- als auch zum Batch-Convolving. Erläuterung: Mit Realtime-Convolving meine ich das "normale" Verfahren, bei dem die Audiodateien unmittelbar vor ihrer Wiedergabe mittels eines Convolvers "gefaltet" werden. Batch-Convolving hingegen soll das von Sigi gewünschte Verfahren bezeichnen, bei dem er sämtliche Dateien über Nacht (vor-)faltet und sie solchermaßen veredelt auf seiner (Netzwerk-)Festplatte zur späteren Wiedergabe ablegt - dies ist für alle diejenigen eine interessante Lösung, die keinen PC im Hörzimmer haben wollen. Kleiner Zwischenbericht: Habe heute die USB-Schnittstelle (Tascam US-144) in Betrieb genommen und die ASIO-Treiber aktiviert. Funktioniert prima, auch mit 24Bit/96kHz! Probehalber auch schon einmal einen LogSweep mit Ulis LogSweep-Recorder und dem ECM8000 aufgenommen. Funktioniert auch prima. Ich habe mit dem LogSweep-Recorder ein Testsignal aufgenommen und zusammen mit zwei Musikdateien (im wav-Format) sowie der Mikrofon-Kalibrierungsdatei an Uli geschickt. Anhand dessen hat Uli die beiden Dateien phasenlinear gefaltet (als Zielkurve wählte er eine leicht abfallene Gerade) und an mich zurückgeschickt: Dann kam der große Test: mit dem ABX-Comparator konnte ich die gefalteten Dateien von den lautstärkekorrigierten Originaldateien bei 10 Durchgängen zu 100% unterscheiden, wobei sie mir in beiden Fällen besser gefielen* als das Original. Beim "freien" Hören allerdings fiel mir die Unterscheidung schon deutlich schwerer. *Auf einer Aufnahme ist Mark Murphy zu hören; er klingt jetzt authentischer, richtiger (wir reden hier allerdings nicht von Welten) Zum Vergleich: das vom Lyngdorf korrigierte Signal ist deutlicher vom Original zu unterscheiden; das verwundert auch nicht weiter, fällt doch die Zielkurve des Lyngdorf steiler zu den Höhen hin ab als die von Uli gewählte: Für mich steht nach diesem Test fest, dass ich mir Acourate zulegen werde; meine persönliche Zielkurve zu erarbeiten, wird der nächste Schritt sein. von Kienberg » Jetzt habe ich drei Fragen dazu: 1. Hast Du die Messungen mit aktivierten Lyngdorf durchgeführt? 2. Wie sind die unteren Kurven (blau und braun) zu interpretieren? (die oberen, rot und grün, sind wohl deine Messwerte vor der "Faltung") 3. Hast Du auch mal "nur" mit Acourate probiert, also mit ausgeschalteten Lyngdorf? Vielleicht solltest Du mal zu Testzwecken eine richtig grosse Besetzung nehmen, die 9. Dvorak mit Kondrashin z.B., die hast Du doch auch, wenn ich mich richtig erinnere, diese Aufnahme bildet den Raum der Wiener hervorragend ab, das müsste mit Faltung schon ohne A/B Vergleich deutlich hörbar sein. 2. Wie sind die unteren Kurven (blau und braun) zu interpretieren? (die oberen, rot und grün, sind wohl deine Messwerte vor der "Faltung") Genau so ist es. Die Zielkurve liegt sicherheitshalber in etwa auf dem Niveau der tiefsten Senke, um nicht bei Anwendung des Korrekturfilters in den Clipping-Bereich der Schutzschaltung für die Hochtöner zu geraten. 3. Hast Du auch mal "nur" mit Acourate probiert, also mit ausgeschalteten Lyngdorf? Die Wiedergabe erfolgte mit dem ABX-Comparator von foobar2000 über den Lyngdorf, aber mit ausgeschaltetem RoomPerfect. Der Vergleich Acourate/RoomPerfect ist schwieirg, da a) die Zielkurven unterschiedlich sind (siehe mein letzter Beitrag) und b) die Lautstärke bei eingeschaltetem RoomPerfect etwas höher liegt (ein unfairer Vergleich also). Mein Eindruck ist jedoch, dass ich mit Acourate auf jeden Fall ähnliche Ergebnisse erzielen kann wie mit RoomPerfect (sofern ich eine identische Zelkurve verwende), aber eben noch viel mehr. Zudem sind der "Indivisualisierung" keine Grenzen gesetzt - allenfalls die meines Begriffsvermögens hinsichtlich der Handhabung der vielen Stellschrauben von Acourate. Aber da vertraue ich ganz auf Uli und unser Forum. Vielleicht solltest Du mal zu Testzwecken eine richtig grosse Besetzung nehmen, die 9. Dvorak mit Kondrashin z.B., die hast Du doch auch, wenn ich mich richtig erinnere, diese Aufnahme bildet den Raum der Wiener hervorragend ab, das müsste mit Faltung schon ohne A/B Vergleich deutlich hörbar sein. von Rudolf »In Abwesenheit meiner Silbersand FM 303 habe ich dann ersatzweise meine Braun LV 720 eingemessen und siehe da: derselbe Fehler. Mit Hilfe von Uli haben wir dann alle Konstellationen durchgemessen, bis wir sicher sein konnten, dass mein Lyngdorf der "Bösewicht" ist. Im Bereich um die 500 Hz stimmt dort das Einschwingverhalten nicht (s.u.): Trost: Laut Uli ist dieser Fehler problemlos zu beseitigen, da eindeutig messbar; ist in der "minimalphasigen Welt" des Lyngdorf eigentlich auch gar kein Fehler! Wie man schon jetzt sieht, ist Acourate ein mächtiges Tool, das unbedingt richtig gefüttert und interpretiert werden will. In den nächsten Tagen werde ich gemeinsam mit Ulis Hilfe meine aktiven Braun einmessen und einen FIR-Filter erstellen - natürlich inklusive Berichterstattung. von Kienberg » 21.09.2009, 20:48 Rudolf hat geschrieben: Im Bereich um die 500 Hz stimmt dort das Einschwingverhalten nicht (s.u.): Zu diesem Diagramm habe ich drei Fragen: 1. Auf der x-Achse, die ja die Time domain darstellt, ist jeder grössere Teilstrich mit 0,125 angegeben, was bedeutet das? 2. Wie kommt man beim Anschauen dieses Bildes gerade auf 500 Hz? Oder steckt das indirekt in der Zahl 6019, also dem Sample? 3. Gibt es ein Diagramm, das die Frequenz 500 Hz exakt anzeigt? uli.brueggemann » Das mit der Beschriftung des Diagramms ist eine etwas unschöne Eigenschaft der Steema TeeChart Grafik-Bibliothek. Beim Reinzoomen muss im Prinzip irgendwann umgeschrieben werden, aber das klappt mit der Automatik nicht so wie es sollte. Man kann dann zwar händisch nachhelfen, um das Diagramm sauber zu machen. Doch dazu muss man damit spielen, und das ist für Ungeübte erst einmal schwierig. von Rudolf » 21.09.2009, 23:01 Auch wenn die Bedienung von Acourate für die meisten von uns noch ein Buch mit sieben Siegeln darstellt, dürfen wir hier nicht Ursache und Wirkung durcheinanderbringen. Acourate kann nur die Auswirkungen der gesamten Wiedergabekette analysieren. Dass in meinem Fall die Wandlervorstufe einen "Durchhänger" hat, konnte niemand ahnen. Daher tippte Uli erst einmal auf den "üblichen" Verdächtigen, die Lautsprecher. Erst die (zufällige) Vergleichsmessung mit anderen Lautsprechern brachte uns auf die richtige Fährte. Umso schöner aber von Uli zu hören, dass es Acourate ziemlich egal ist, welche Komponente in der Wiedergabekette die "Schwachstelle" ist. Es kann alles wieder auf Linie gebracht werden*, einschließlich der Kabel! *natürlich nur soweit, wie es die Komponenten physikalisch erlauben. von Rudolf » 26.09.2009, 23:01 Kleiner Zwischenbericht: Uli war sehr fleißig und hat mir bereits einen FIR-Filter kredenzt. Sobald ich den Filter für gut befunden habe, wird er mir den Weg dorthin verraten. Hier meine Antwort an Uli: Ich habe mich gestern zu später Stunde in die Korrekturdatei einhören können und bin sehr angetan vom Ergebnis. Die Korrektur der Braun LV 720 dürfte - im Gegensatz zu meinen vergleichsweise neutral abgestimmten Silbersand - auch den Normalfall darstellen: plötzlich ist der aufgedickte Bass weg und die Wiedergabe erscheint unspektakulärer, richtiger. Im Vergleich zum Lyngdorf sind dies zwar keine Welten, aber deine Korrektur belässt den Aufnahmen mehr "Glanz" bzw. "Durchsichtigkeit". Vielleicht meine ich damit auch die Räumlichkeit; so genau habe ich da aber noch nicht reinhören können, denn es gehört ja neben dem richtigen Musikmaterial auch die notwendige "Hör-Fitness" dazu. Auf jeden Fall sollten wir mit diesen Einstellungen weitermachen. Nachtrag: Den Eindruck der verbesserten Räumlichkeit kann ich nach einem weiteren Hördurchgang mit klassischer Musik bestätigen. Fortepianus » Rudolf hat geschrieben:Nachtrag: Den Eindruck der verbesserten Räumlichkeit kann ich nach einem weiteren Hördurchgang mit klassischer Musik bestätigen. Freut mich, dass die Braun-LS mit den Filtern wie erwartet hinzu gewinnen. Bedenke bitte bei der Beurteilung des erweiterten Raumeindrucks, dass so manche Aufnahme eben keine Raumtiefe besitzt. Die von Klaus so treffend bezeichneten Mono-Hühner auf der Stange. Nimmt man jedes Instrument mit einem eigenen Mikro auf und platziert die Instrumente anschließend mit dem Pan-Regler von links nach rechts wo soll da der Raum herkommen? von uli.brueggemann Zum Thema Direktschall und Diffusschall: Acourate schaut sich NICHT den Frequenzgang direkt an um ihn dann zu glätten. Im Frequenzgang ist ja kein Zeitverlauf mehr ersichtlich. Genauso wie man aus dem Zeitverlauf ja auch schlecht bis gar nicht herauslesen kann welche Frequenz da gerade aktiv ist (da ist er wieder, der gute alte Heisenberg). Acourate wertet das Zeitsignal aus. Und man kann nun bei der durchgeführten frequenzabhängigen Fensterung sogar noch aussuchen wieviele Zyklen man haben möchte, also wie breit das Fenster ist. Das ist dann bei 10 kHz eben um den Faktor 100 schmaler/enger als bei 100 Hz. Und wenn man zwei Zyklen wählt dann ist man doch schon nahe am Direktschall. In der Praxis nehme ich beim Rechnen immer so 10 bis 15 Zyklen Breite. Was dann bei 10 kHz bedeutet dass alles was später als 1 ms bis 1.5 ms kommt erst gar nicht mehr berücksichtigt wird. Bei 10 Hz wären das 1 sek bis 1.5 sek. Es muss jedem klar sein dass dann in jedem Raum Reflektionen mit drin vorkommen. Und es ist dann dabei doch schon bannig erstaunlich wie verbogen so Lautsprecherkurven ausschauen können. Selbst bei zwei Zyklen. Da liegt zumeist schon die Grundtendenz des Frequenzgangs fest. Eine Korrektur verbiegt natürlich dann diesen Direktschall. Aber mit Zielstellung zum Besseren! von uli.brueggemann » 29.09.2009, 21:06 schauki hat geschrieben:Und man kann sich halt dadurch Dinge erlauben, die über IIR oder gar analog böööööse wären, z.B. Filtersteilheiten mit 300dB/Oktave, Cuts die wirklich Zack und weg machen usw... Das kann je nach Konzept Vorteile bringen, die sonst nicht zu realisieren wären. Ein kleines Beispiel zur Aufmunterung und zwar eine Weiche 1 kHz mit NT-Filter 10ter Ordnung. Wobei im steilen Übergangsbereich der Abfall von 100 dB innerhalb von 1 Hz erreicht wird (auch schon beim NT-Filter 2ter Ordnung, da ist der Bereich obenrum aber eben noch breiter). von Fortepianus » 29.09.2009, 22:04 Die NT-Filter kenn' ich aus dem analogen Bereich als Kombi aus Hoch- bzw. Tiefpass-Filter mit einem Sperrfilter bei erstaunlicher Flankensteilheit. Allerdings steigt der Pegel im Sperrbereich dann irgendwann wieder über die Werte an, die man bei einem reinen z. B. LR-Tiefpass kennt. Das sieht man hier bei der digitalen Variante nicht - warum eigentlich nicht? Hast Du so eine steile Weiche mal probiert bei Dir, klingt das irgendwie anders als gewohnte Filter 2. bis 4. Ordung? BM verwendet ja solche abartig steilen Filter z. B. in der BM35, um den Ringradiator nach unten abzusägen, wenn ich das richtig verstanden habe. von uli.brueggemann » 30.09.2009, 07:23 Fortepianus hat geschrieben: 1. Dort wird mir aber nur max. 6. Ordnung angeboten. 2. Allerdings steigt der Pegel im Sperrbereich dann irgendwann wieder über die Werte an, die man bei einem reinen z. B. LR-Tiefpass kennt. Das sieht man hier bei der digitalen Variante nicht - warum eigentlich nicht? 3. Hast Du so eine steile Weiche mal probiert bei Dir, klingt das irgendwie anders als gewohnte Filter 2. bis 4. Ordung? 1. ich hab das eigentlich willkürlich auf 6te Ordnung begrenzt. Dabei war natürlich ein Hintergrundgedanke dass ja ansonsten auch das Ringing länger wird. Und wenn dann die Treiber nicht so richtig mitspielen aufgrund ihrer Eigenschaften dann kann das in der Addition auch durchschlagen. Von den theoretischen Filtern her ist das kein Problem. 2. kann ich nicht beantworten. Weil ich Maschinenbauer bin und kein Analogelektroniker 3. Ich selbst benutze NT 2ter Ordnung bei mir. Die B&W Kevlar Mitteltöner sind untenrum empfindlich weil ohne Gummisicke und obenrum wegen Breakups. Die NTs sperren das einfach weg und der MT läuft innerhalb seiner optimalen Eigenschaften. Auch der Ringradiator profitiert davon. Das ist m.E. überhaupt ein wichtiger Gedanke: betreibe ein Chassis nur in dem Bereich in dem es gerne spielt, zwinge es nie dazu etwas zu tun was es nicht mag. von KSTR » 30.09.2009, 19:12 Fortepianus hat geschrieben:Die NT-Filter kenn' ich aus dem analogen Bereich als Kombi aus Hoch- bzw. Tiefpass-Filter mit einem Sperrfilter bei erstaunlicher Flankensteilheit. Allerdings steigt der Pegel im Sperrbereich dann irgendwann wieder über die Werte an, die man bei einem reinen z. B. LR-Tiefpass kennt. Das sieht man hier bei der digitalen Variante nicht - warum eigentlich nicht? Hi Gert, das sind mMn wirklich zwei verschiedene Filterdesings, das analoge Neville-Theile (aka Elliptical/Cauer) und das digitale. Letzteres ist ein echtes Brickwall-Filter, so wie das auf den Diagrammen von Uli aussieht... der in 64bit-double rechnet (oder?), 180dBFS wären schon das Limit bei 24bit-Ausgabe. Interessant wäre das Phasenverhalten des Filters, bzw. die Impulsantwort (z.B. mit STransform visualisiert). @Uli: Das mit dem stark/scharf eingegrenzten Übertragungsbereichen für die einzelnen Chassis birgt halt auch die Gefahr bzw. Tendenz, dass die Bildquellen spektral in verschiedene diskrete Höhenebenen zerfallen, je mehr Wege desto stärker. Das kann man mögen oder halt auch nicht, so es sich denn bemerkbar macht... ebenso wie den Effekt dass der "Eigenklang" des LS spektral zwischen den Chassis evtl. deutlicher hin- und herspringt. Mit guten und gut aufeinander abgestimmten Chassis usw kann das jedoch bestimmt ganz ausgezeichnet funktionieren. von Fortepianus » schauki hat geschrieben:Einzig muss man noch mehr aufpassen dass die Bündelung stetig bleibt, was mit "normalen" Filtern niedriger Ordung halt etwas verschleift. Ja. Deshalb meine ständige Predigt, dass der Einsatz der ganzen FIR-Filterei nur dann richtig Sinn macht, wenn die Phasenbezüge der Chassis zueinander stimmen. Was man mit den richtigen Filtern (Subtraktionsprinzip) und geregelten Chassis ganz gut hinkriegt. schauki hat geschrieben:Hmm... sind da nicht eher die Durchmesser der jew. Chassis, ausschlaggebend (wenn keine Schallführungen oder Cadrioden/Dipole/...) verwendet werden? Meine Anmerkung bezog sich nicht auf die Bündelung durch "Chassisdurchmesser größer als halbe Wellenlänge", sondern auf die vertikalen Abstrahlkeulen bei den Übernahmefrequenzen, die bei Phasenungleichheit der benachbarten Töner raufund runterwandern. Und da hat die Weiche großen Einfluss. Natürlich die Weiche dann, aber mit der reißt man bei ner Kombi 8" + 1" in planer Schallwand (wenn mans macht) halt auch nix mehr... Und da kommt noch dazu, dass der Achtzöller dann bis sagen wir 2kHz spielen darf, was ganz erhebliche Dopplerverzerrungen zur Folge hat. Geregelte Chassis weiß ich jetzt auch nicht, was sie in Bezug auf Abstrahlverhalten anders/besser machen als ungeregelte, aber da habe ich mich auch (mangels dieser) nicht damit beschäftigt. Ganz einfach, ein geregeltes Chassis macht für sich sehr viel weniger Phasentänze als ein ungeregeltes. Wird die Membran straff gegengekoppelt, wird ihr damit korrektes Amplituden- und Phasenverhalten anerzogen. Es hilft ja nichts, wenn die Weiche für elektrische Phasengleichheit zwischen zwei Chassis sorgt, aber die beiden Chassis dann jeweils eine völlig unterschiedliche Phase dazu addieren. Bzgl. steiler Filter: hier hat man halt den Vorteil, jedes Chassis wirklich das bekommt was es optimal kann. D.h. erst gar nicht was machen muss wo es nicht so tolle ist. Wobei auch schon 24dB/Oktav LR Filter z.B. von der Belastung her schon kaum schlechter sind als steilere... Ich habe mit den 24dB-Filtern auch sehr gute Erfahrungen gemacht. Ich halte übrigens nichts von dem sich hartnäckig haltenden Gerücht "ungeradzahlige Filter klingen besser". Vielleicht mag da was dran sein, wenn man konventionelle Filter verwendet, die eben keine phasenstarre Anbindung der Chassis erlauben. Bei Subtraktiv- oder gar linearphasigen FIR-Filtern ist das nach meiner Meinung nicht gültig. Auf der anderen Seite, diese Erhöhung im Bündelungsmaß sagt MEG, ist für LSP Modelle für vorgesehen ~3m Hörabstand für den "richtigeren" Entfernungseindruck nötig... Bündelung ist ja nichts schlechtes. Aber wenn sie mit der Frequenz zunimmt, sollte das stetig und gleichmäßig sein. von uli.brueggemann » phase_accurate hat geschrieben:Gerade in dieser Hinsicht (Bündelung) können weniger steile Filter Vorteile haben. @Uli: Wie sieht die Struktur eines NT filters aus ? Ist dies ein nicht-rekursives Flter ? Charles, kannst Du bitte mal den Zusammenhang zwischen Bündelung und Filtersteilheit erklären? Ausgehend von erst mal einem Chassis und dann im Zusammenspiel mit zweien? NT-Filter: Google gibt diverse Hinweise zum NT Filter. Z.B. auch http://sound.westhost.com/articles/ntm-xover.htm Acourate arbeitet ja mit FIR Filtern. Dabei werden die NT-Filter über den Amplitudengang repräsentiert und entsprechend erzeugt. Möglicherweise ist der Begriff NT hiermit gar nicht 100% korrekt, da der Ansatz mit Verwendung von Notch- Filtern gar nicht zum Tragen kommt. von KSTR » 03.10.2009, 10:18 schauki hat geschrieben:Geregelte Chassis weiß ich jetzt auch nicht, was sie in Bezug auf Abstrahlverhalten anders/besser machen als ungeregelte, aber da habe ich mich auch (mangels dieser) nicht damit beschäftigt. Im Bereich der tiefen Membran/Sicken-Resos gibt es den Unterschied, dass ein geregeltes Chassis, radial/axisymmetrisch betrachtet, praktisch einen einseitig eingespannten Stab darstellt, während ein ungeregeltes mit womöglich schwachem Antrieb im Vergleich ein schwimmender Stab ist, noch mehr schwimmt es bei reinem Stromantrieb. Das ergibt andere Bewegungsmuster usw in der Membran. Ich habe das auch schon mal festgestellt an Gitarren-Chassis (weicher Antrieb), dass die Quellimpedanz eben bei diesen Resos die off-axis-Abstrahlung verändert. von Fortepianus » 03.10.2009, 21:30 Hallo Rudolf, ich habe da eine Anfängerfrage zu Acourate -> Foobar an Dich: Wie mach' ich die wav-Filter (Impulsantworten) für Foobar mit Acourate? Rudolf hat geschrieben: Fortepianus hat geschrieben:...stellen die wav-Dateien die Impulsantwort der Korrektur dar, mit der man das Signal falten muss, um die Phasenfehler des Lyngdorf zu kompensieren? So ist es! Und wo wird dann gefaltet? Am PC, z.B. mit foobar2000. Wenn ich z.B. meine Cor44L.dbl und Cor44R.dbl als aktive Curve 1 und 2 rein lade, kann ich das als Stereo-WAV speichern (richtig?). Mit welcher Auflösung mach ich das am besten, Acourate fragt mich dann, 24, 32 oder 64 Bit? Foobar neueste Version hab' ich auf dem Rechner samt Convolver-Plugin, hab' aber keine Ahnung, wie das dann geht. Wohin die wav? Muss für jede mögliche Samplingfrequenz (44,1, 48 und 96k zum Beispiel) eine Korrektur-wav irgendwo liegen (wo)? Geht das dann on-the-fly beim Abspielen oder muss ich die Files vorher mit der Korrektur-wav falten? von phase_accurate » 05.10.2009, 07:16 kannst Du bitte mal den Zusammenhang zwischen Bündelung und Filtersteilheit erklären? Ausgehend von erst mal einem Chassis und dann im Zusammenspiel mit zweien? Ich habe gerade gesehen, dass ich noch eine Antwort schuldig bin. Ein Chassis: Definitiv kein Unterschied! Zwei Chassis: Hier kommen wir der Sache schon näher. Nehmen wir zum Beispiel die viel zitierte Zweiwege Box mit 8" Tief-Mitteltöner und Kalotte und einer Trennfrequenz von 2 kHz. Das 8" Chassis wird bei dieser Frequenz (und auch darunter schon) sehr stark bündeln. Die Kalotte hingegen wird bei 2 kHz sehr breit strahlen. Ist die Uebernahme sehr steil, wird auch das Abstrahlverhalten entsprechend zackig von schmal auf breit ändern, sobald die Trennfrequenz durchschritten wird. Dies gilt vor allem für die horizontale Abstrahlung. Bei der Vertikalen kommt selbstverständlich noch das Lobing* hinzu. D.h. bei der horizontalen Abstrahlung kann eine flachere Trennung durchaus Vorteile haben, bei der vertikalen ist eher die steilere Trennung im Vorteil wegen dem reduzierten Lobing. Es ist also von Fall zu Fall zu unterscheiden, was besser ist. In einem Raum mit wenig Reflektionen wird wahrscheinlich fast immer die steilere Trennung gewinnen (weil die Frequenzganglinearität ausserhalb Achse hier eine kleinere Rolle spielt) aber eben nur fast. von schauki » 16.10.2009, 11:42 Hallo! So da ich mir jetzt Acourate geholt habe und mit ein paar Tips von Uli (danke) bin ich schon auf ein Ergebnis gekommen. - Einmessung am Laptop Platz (~1m weiter hinter der normalen Stereo-Position) - Einfach die Macros in Acourate verwendet - Mikro-Kalibrierdatei eingebunden, Mikro fast waagrecht nach vorne, weil dort die Kalibrierung gemacht wurde - Stereo-Korrektur in Foobar2000 über convolver Plug-In eingebunden Meine bisherigen Versuche waren immer an Stereo-Position gemessen. Mit DRC habe ich ein wenig gespielt, der Unterschied zu meiner "normalen" Einstellung über die DCX war immer kaum/nicht hörbar (außer bewusst extreme FG Abweichungen). Genauso war das beim Testtrack den mir Uli gerechnet hat, kaum/minimal Unterschied. War aber immer auf Stereo-Position eingemessen. Jedenfalls bin ich jetzt wirklich überrascht, dass das Ergebnis doch so deutlich zu hören ist. Es sind noch immer keine Welten, aber ich habe einfach mit kaum/nix gerechnet. Aber es ist bei nahezu allen bisher probierten Tracks zu hören, bei einigen zwar seeehr wenig, aber dafür bei anderen schon deutlich. Ich denke es liegt nun an folgenden Punkten, dass sich die Veränderung (in dem Fall für mich Verbesserung) einstellt: - Einmessung über DCX für andere Position - Acourate-Einmessung an Punkt wo mehr Diffusschall vorhanden ist Im Endeffekt klingts im Bass knackiger, und in Summe klingt es "geschmeidiger", vorher war etwas "rauhes" im Klangbild. Habe Acourate ja primär für meine geplante PC-Weiche angeschafft, umso erfreulicher, dass es nun doch unerwarteterweise nun auch per Stereo so gut funktioniert. Ab gesehen, davon, beim händisch einmessen über DCX, ist ja immer das Problem, dass man an sich selbst zweifelt ob das jetzt sinnvoll/richtig ist was man da an den EQ's dreht. Aktuell verwende ich in der DCX 24dB Filter, diese könnte ich noch auf 48dB Stellen, Groupdelay wird ja dann über Acourate ausgelichen. Hier sollte sich die Verbesserung dann wohl noch deutlicher zeigen. Hier könnte man wohl einfach in der DCX nur die Filter einstellen und alles andere Acourate machen lassen. So jetzt habe ich das ganze noch mal für meine Stereo-Position gemacht, die dann etwa 2,3m von den Lautsprechern entfernt ist. Der Laptop-Platz ist etwa 3,3m entfernt. Jedenfalls sind hier auf dem Stereo-Platz (dort ist in der DCX entzerrt) entsprechend geringer, bzw. glaube ich nicht mit Sicherheit sagen zu können welche Version spielt. Ich habe auch das TT/MT Filter auf 48dBLR Weichen umgestellt um dort mehr Korrekturpotential zu haben. Gleiches dann am Hörplatz, allerdings mit unveränderter Einstellung an der DCX (also händisch eingemessen auf Stereo-Platz) und für die Positon ein neues Korrektur-Filter erstellt. Hier sind wieder die Unterschiede da. Woran das liegt weiß ich nicht. Der IACC Wert am Stereo-Platz: IACCv [<20ms] = 0,699 IACCe [<80ms] = 0,628 IACCI [80ms-end] = 0,200 IACC overall = 0,628 Das Ganze am Laptop-Platz: IACCv [<20ms] = 0,462 IACCe [<80ms] = 0,430 IACCI [80ms-end] = 0,596 IACC overall = 0,430 Werte nach der Korrektur muss ich erst checken. Kurze Frage zu Acourate: Unter Room Macro 1 kann man ja u.a. frequency depended window einstellen. X/X X= 1-?? default = 10/10 Nehme an das sind Zyklen, aber warum 2 Eingaben? Gilt dort auch vor und nach Peak? Was meint VOR Peak eigentlich? uli.brueggemann » schauki hat geschrieben:Nehme an das sind Zyklen, aber warum 2 Eingaben? Gilt dort auch vor und nach Peak? Was meint VOR Peak eigentlich? Dein Wert X bedeutet die Anzahl der Zyklen. Im Bereich 1 - n, wobei n üblicherweise so bis 20 verwendet wird. Je grösser der Wert umso weniger glatt das Ergebnis (welches der Originalkurve folgt). Damit wird aber auch die Korrektur wirksamer bzw. die Positionsabhängigkeit am Sitzplatz grösser (doch wer hat schon einen Zahnarztstuhl zuhause?). Du kannst aus Spass auch 100/100 eingeben und mal mit 10/10 vergleichen. Erlaubt ist dabei, was gefällt. Grenzwertige Betrachtung: die Frequenz von 20 Hz hat eine Zykluszeit von 50 ms. Ein FDW von 100 bedeutet ein Fenster von 5 sek. Da der Puls aber typischerweise kürzer ist, gibt die vorliegende Pulslänge natürlich die Begrenzung vor. X/X: das frequenzabhängige Fenstern geht ja aus von niedrigen hin zu hohen Frequenzen. Nun gibt es ja die Theorie welche besagt, dass man nur im unteren Frequenzbereich korrigieren sollte (ich stimme dieser nicht zu !). Aber es könnte vielleicht Sinn machen, unten mit FDW 10 zu arbeiten und oben mit FDW 2. Das steckt hinter X/X. Dazwischen wird interpoliert. Dann hat man evtl. bei 1 kHz sowas wie 4,5 Auch hier gilt: einfach mal testen und die Auswirkungen im Plot vergleichen. Z.B. Original laden, FDW 2/2 nach Kurve2, FDW 20/20 nach Kurve3, FDW 20/2 nach Kurve4 ... Der Peak, das Davor und das Dahinter: Du siehst ja wie eine typische Pulsantwort aussieht, wenn Du sie lädst. Vorne erstmal wenig, dann der Peak (Puls), dahinter wird es wieder weniger. Da unsere Welt eigentlich kausal geprägt ist, haben wir eine nachfolgende Reaktion auf ein Eingangssignal. Vorauseilende Reaktione sind eher Sonderfälle. Eine mögliche Reaktion ist dabei auch ein Einschwingen. Daher der kurze zeitliche Vorlauf in unseren Pulsantworten. Damit kann mann sich nun auch die Fenster links und rechts vom Peak vorstellen. Das ist eine Bewertung des Signals mit dem Abstand eines Samples von der Peakposition. Es wird umso mehr abgeschwächt, je weiter es entfernt ist. Bei dem oben diskutierten X wird die Verstärkung also nach X*samplerate gleich Null. Damit wird das Hauptgewicht der Auswertung auf die Interpretation des Geschehens um den Peak herum gelegt. Ein FDW von 2/2 sieht vornehmlich den Direktschall. Im Macro1 wird schlichtweg für linkes und rechtes Fenster diesselbe Fensterbreite verwendet. Daher der Unterschied zur "vollen" Kontrolle unter TD-Functions - FDW von uli.brueggemann » 21.11.2009, 12:25 Fujak hat geschrieben:Warum ist dann die Korrektur wirksamer, wenn das Ergebnis im FG weniger geglättet ist? Ich hätte es eher umgekehrt vermutet (d.h. kleinerer Wert = geglätteter = positionsabhängiger). Ein kleiner Test zeigt das: Rechne einfach einmal FDW10/10 und FDW 100/100. Schau Dir neben dem Frequenzgang (weniger glatt bei 100/100) mal die Pulsantworten im Vergleich an. Ganz klar ist die Pulsantwort beim grösseren FDW länger. Logisch, es sind ja auch mehr Zyklen. So wird auch ein Korrekturfilter mit grossen Werten in macro1 und macro4 deutlich länger. Es zeigt sich ein "Naturgesetz": je unruhiger der Frequenzgang , bzw. umso mehr Details er aufeigt, umso länger ist die minimal notwendige Pulsantwort. Die Korrektur erstreckt sich dabei über einen grösseren Zeitraum. Diese passt dann zu dem Aufnahmeort, aber eben auch nur dort. An einer anderen Position ist vielleicht der Direktschall mehr identisch, aber nicht mehr die Einflüsse von Reflektionen. von uli.brueggemann » 22.11.2009, 11:52 wgh52 hat geschrieben:Also könnte sich man sich ggf. verschiedene "Filtersätze" generieren und nach Bedarf "umschalten". Richtig? Richtig. Im Prinzip kann man sich beliebigste Korrekturfiltersätze zusammenstellen. Ich hatte mal bis zu 9 Datensätze per Fernbedienung umschaltbar. Aber die Zeit hab ich hinter mir. Prinzipiell könnte man auch zig-tausend Korrekturen zusammenstellen, für jeden Track eine. Die Computertechnk und die Speichermedien geben das her. Man muss dann nur noch das Ganze verwalten Tinitus Ich will den Output der Sounkarte mit dem Filter aus Acourate "convolven". Nicht nur einzelne Player, sondern allen Sound. Und ich möchte dies unter Windows, also dort wo Acourate auch läuft und nicht in einer extra Box. Die Suche nach Software- bzw. Virtuellen- Soundkarten verlief negativ und so musste eine neue Hardware ran. Die Soundkarten von ESI verwenden einen erweiterten Treiber. Hiermit kann mit der sogennannten Direct Wire Technik der Stream an Anwendungen weitergeleitet werden. Mit der einfachen VSTHost Software (freeware) ist es einfach möglich das convolver Plugin einzubinden. Hier auf dem Bild sind die Komponenten zu sehen, die im Einsatz sind: Soundkarte: ESI Juli@ mit Direct Wire Programm: VSTHost mit convolver Plugin [img=http://www.abload.de/thumb/acourate_vsthostzr90.jpg] Zur Zeit ist es mir nur mit den MME Treibern gelungen den Output an die VSTHost Anwendung weiterzuleiten und wieder an die Soundkarte zu führen. (Eingabe: MME Juli@CH34, Ausgabe: MME Juli@CH12). Die Latenz ist im Moment noch ziemlich hoch, sodaß Videos nur mit Zeitversatz rüberkommen, aber vielleicht kann das noch verbessert werden. Dies sieht man auch in der Pegelanzeige der Soundkarte Output 12 / 34 sind nicht gleich. Ansonsten wird jede Musikausgabe "acouratisiert". von Fortepianus » tinnitus hat geschrieben:Die Latenz ist im Moment noch ziemlich hoch, sodaß Videos nur mit Zeitversatz rüberkommen, aber vielleicht kann das noch verbessert werden. Bedenke bitte, dass ein mit acourate erstelltes linearphasiges Filter normalerweise eine Latenz von 32000/Abtastrate erzeugt, bei 44100/s also ca. 0,7s. Willst Du das vermeiden, musst Du entweder ein minimalphasiges Filter erstellen (das aber keine Zeitkorrektur erlaubt) oder ein linearphasiges Filter erstellen, das eine kürzere Latenz hat (mit der Funktion "Rotation" die Sprungantwort des Filters auf der Zeitachse nach links schieben und die rechts auftauchenden Signalanteile mit "set to zero" löschen). Verschlechtert zwar die Korrektur im Bass, aber die Latenz wird dafür kleiner. von Latenight Hallo zusammen, ich bin der Neue ! Als bishereriger Mitleser möchte ich meinen Beitrag hier beisteuern. Es wäre ja schade wenn der Thread in der Versenke verschwindet. Ich habe meine geringen Erfahrungen mit Acourate hier zusammengeschrieben und es ist eine Step by Step Anleitung daraus geworden. http://www.heimkinoverein.de/forum/htpc-mediaplayer/acourate-macht-suechtig @Schauki Mit F5 lässt sich ja sehr schön der IAAC Vergleich von Vor und Nach der Korrektur aufzeigen Derzeit beschäftige ich mich auch mit einer Mehrkanallösung durch die Filter von Acourate. PowerDVD 8 Kanal out > RME Soundkarte routing zu Line in > Singnal abgreifen mit VST Host Console ASIO 8 Kanal > 4 x Stereo Convoler Plugin > ASIO 8 Kanal Analoge out. @tinnitus Internal Routing funktioniert also auch mit dem Mixer von RME Soundkarten Es ist mir aktuell nur nicht klar wie ich die Laufzeiten und Phase der unterschiedlichen Kanäle übereinander bringen soll. Sollte ich das über einen Vorfilter in Acourate erledigen oder durch ein VST Plugin von Console. Vielleicht git es ja auch was für den Soundkartentreiberr des RME Fireface II ? Hat Jemand schon Erfahrungen im Bereich Mehrkanal gesammelt ? Leider ist darüber im www nicht viel zu finden. Dann noch eine Frage zum Abschluß. Ich habe über Euren Workshop mit Uli gelesen. Bei so einem Event wäre ich gerne mal mit dabei. Auch die Geithains würde ich mir unter diesen Bedingungen gerne mal anhören. Ist eine Wiederholung des Events geplant ? von Latenight » 22.06.2010, 21:48 Ich bin gerade noch dabei zu prüfen, ob die Mehrkanallösung überhaupt sinnvoll für mich funktioniert. Schließlich habe ich nur einen 8 Kanal Eingang an der Vorstufe und da hängt in der Regel der SACD- und BluRay-Player mit HD-Medien dran. Für den Convoler von Foobar habe ich ein Stereo Filter mit 44.1k erstellt, für den VST Host Convoler Console vier Stereofiles mit 48k für die BluRay Wiedergabe. Irgendwie haut das mit vier VST Plugin´s in Console nicht hin. Jetzt gibt es noch als Alternative das kostenpflichtige Voxengo Pristine Spaxe mit acht Kanal Convolution Modus. Irgendwie hält mich Acourate auch etwas ab vom Weitermachen. Das Musikhören mach einfach zu viel Spaß. Etwas ungewohnt ist der Sound ja schon.Ich bin mir nicht sicher, ob durch Acourat alles besser geworden ist. Lautsprecherspezifische Vorfilter mit Acourate siehe ab Seite XXX von Fujak » 23.06.2010, 16:10 Zum Thema Messung: Ich positioniere die Kapsel des Mikrofons exakt zwischen meinen Ohren (wenn ich da sitzen würde). Die Kapsel zeigt dabei genau nach vorne zwischen beiden Boxen. Auf den Hör-Sessel lege ich übrigens immer eine zu einer großen Rolle gewickelten Decke, welche die "akustische Masse" des Hörers simulieren soll (ich habe noch niemanden dafür gewinnen können, sich freiwillig als Statist dem Wohlklang der Logsweeps auszusetzen ). Ich kenne jemanden der betreibt (bzw. betrieb) ebenfalls ein PC Lösung allerdings mit aktiven DIY 3 Wegerichen. D.h. aus dem PC kommen dann halt 7x3 (für dir Sats) + 1 Analog Kanal, das ganze ebenfalls über Console und eine Motu 24I/O Karte. Über directsound und ffdshow war das angesteuert. Also das selbe was du vorhast, nur halt für jedes Chassis einzeln, ist auch gelaufen. Wenn man rein vom PC wiedergibt, ist das wohl die Optimale Lösung. Ist eigentlich nur eine Frage der Konfiguration dass es dann auch läuft. Ich habe mich mit console noch nicht intensiv auseineander gesetzt (weil ich eher in Richtung linux tendiere), aber Verzögerungselemente sollten ja das geringste Problem darstellen - für die einzelnen Kanäle. Vielleicht gibts gar im Player eine passenden Funktion? Bei Bildwiedergabe muss man halt nur schauen dass man Bild zum Ton synchron bekommt. Je nach Bildwiedergabegerät wird wohl ~1s Verzögerung nötig sein. Die Mehrkanalgeschichte habe ich noch nicht aufgeben, es interessiert mich einfach zu sehr in wie weit dies mit FIR Filtern heute schon möglich ist. Auf der High End 2010 in München hat man uns am Stand von Audiodata zum Audiovoler II gesagt, es sei heute, auf Grund der hohen Rechenleistung nicht möglich so etwas für Mehrkanal zu realisieren. Ich weiß inzwischen das es für Console von Voxengo auch ein Delay gibt. Mal shen wie viel Latenz da zusammen kommt. Aufgeschoben habe ich erst mal die Geschichte mit den Vorfiltern, dies erscheint mir doch etwas zu komplex. Heute habe ich mir Filter für 96k erstellt, mal sehen ob HD Files bei mir am Klang noch was verbessern können. Auch wenn ich nicht gerade ein Fußballfan bin. Jetzt muß ich mir etwas Auszeit von Acourate nehmen. Gerne würde ich mit Hilfe Acourate die Phase bzw. das Delay von meinen Subwoofern einstellen. Hierfür habe ich meine Hauptlautsprecher, die Dynaudio Countour T2.1 einzeln im Bereich von 10 - 200 Hz gemessen (ohne Korrektur und Glättung) und die Pulsantwort herangezoomt.(rote und grüne Linie) Außerdem ist in der Abbildung auch die Amplitude und die Stepantwort meiner DIY Burmester Subwoofer zu sehen. (blaue Linie) Ist dieser Graph überhaupt zu gebrauchen ? Es ist mir noch halbwegs bekannt, wie die Pulsantwort von einem Fullrange Lautsprecher aussehen sollte. Es ist mir jedoch nicht klar, ob man auch im Bassbereich sinnvoll Step- bzw. Pulsantwort messen kann. Vermutlich sind die Burmesterchassis mit 30 cm Ø träger als die Basschassis der Dynaudio, mit jeweils 17,5 cm Ø. Daher kommen die unterschiedlich langen Wellen zusammen richtig ? Eine Summenmessung von Dynaudio Main und Burmester SUB sieht dann so aus. Mein LFE ist nochmal unterteilt. Im Infrabasssbereich setzte ich ein Horn ein. Hier der Übergang von Burmester 30 cm Ø und Horn mit 36 cm Ø MB Quardt Chassis. Aus dieser Pulsantwort werde ich nun gar nicht mehr schlau. Es wäre sehr nett, wenn mir Jemand sagen kann, ob sich auf Grund dieser Messgraphen irgendwelche Schlüsse ziehen lassen. Lässt sich auch dann noch was optimieren, wenn man Acourate nicht als XO verwenden möchte. Aktuell verwende ich für das Bassmanagement eine Berhinger DCX 2496. von uli.brueggemann » Es gibt für mich derzeit die Frage, ob Du bereits Frequenzweichen verwendet hast, oder ob Du nur den Sweep übere einen gewissen Bereich laufen lässt. Nehmen wir mal an, es ist der Bereichssweep. Um die Pulsantworten richtig zu lesen und zu interpretieren ist es sinnvoll, sich auch mal das Ideal anzuschauen. Das kannst Du bei Acourate machen indem Du dem Menüpunkt Logsweep - Logsweep Convolution ausführst, dabei aber nicht die Aufnahme sondern den Originalsweep und die zugehörige Inverse auswählst. Setze dabei auch das Freeze normalisation gain, damit die Pegelverhältnisse bei unterschiedlichen Sweeps gleich bleiben, also eben mit konstanter Verstärkung normalisiert wird. Das gibt dann für diverse Seeps diverse Pulsantworten, die durch Speichern sichern. Nun kannst Du dasselbe mit den zugehörigen Aufnahmen tun, ebenfalls konstante Verstärkung. Damit kannst Du dann die jeweiligen Pulsantworten laden und vergleichen. Es sollte zu sehen sein, dass die Puls-/Sprungantworten sich auch beim Original je nach Sweepbereich unterschiedlich darstellen. Und klarerweise sollte eine Aufnahme bei einem perfekten Chassis wie das Original aussehen. Das tut es (meistens ) nicht. Aber man kann nun schauen und vergleichen, was denn nun anders ist. Fast immer passt das Anschwingen und dann schlägt der Raum zu. Nichtsdestotrotz, es hilft ungemein beim Herausfinden des Peaks der aufgenommenen Pulsantwort. Ganz klar: der Bereichssweep ist im Prinzip auch ein Filter. Seine Pulsantwort enthält ja gerade nicht die Frequenzen, welche nicht gespielt wurden. Also muss die Pulsantwort ein Bandpassverhalten aufweisen, evtl. überlagert von vorhandenen Frequenzweichen der LS (die aber eigentlich so sein sollten, dass sie den Sweepbereich möglichst durchlassen). Um später einmal Verzögerungen zwischen den Chassis zu erfassen, muss in der Messung auch irgendeine Referenz enthalten sein. Bei Brutefir (so sind auch die Tutorials verfasst) verzögere ich vorzugsweise den Hochtöner um einen grossen Bereich, z.b. 1000 oder 2000 Samples. Dann findet man die Differenz zwischen den jeweiligen Peaks und kann daraus die reale Verzögerung ermitteln. Wenn z.B. der Convolver von John Pavel verwendet wird, muss man dann eben in der config-Datei die entsprechende Verzögerung testweise definieren. Ansonsten sehen die Bilder ok aus, ich kann nichts Negatives feststellen. von Latenight » 28.06.2010, 08:11 Es gibt für mich derzeit die Frage, ob Du bereits Frequenzweichen verwendet hast, oder ob Du nur den Sweep übere einen gewissen Bereich laufen lässt. Meine Dynaudio Hauptlautsprecher betreibe ich passiv. In Verbindung mit dem Convolver und Acourate ist das auch locker in Fullrange möglich. Dank sei dem Subsonicfilter der unter 20 Hz alles ausblendet. Im Kinobetrieb trenne ich die Dynaudio mit dem BluRay Player bei 80 Hz ab, er gibt das Signal analog an die Vorstufe wieter. Nehmen wir mal an, es ist der Bereichssweep. Den Messbereich hatte ich in Acourate von 10 - 200 Hz gewählt um den von mir interessanten Übergangsbereich bei 80 Hz besser betrachen zu können. Um die Pulsantworten richtig zu lesen und zu interpretieren ist es sinnvoll, sich auch mal das Ideal anzuschauen. Das kannst Du bei Acourate machen indem Du dem Menüpunkt Logsweep - Logsweep Convolution ausführst, dabei aber nicht die Aufnahme sondern den Originalsweep und die zugehörige Inverse auswählst. Setze dabei auch das Freeze normalisation gain, damit die Pegelverhältnisse bei unterschiedlichen Sweeps gleich bleiben, also eben mit konstanter Verstärkung normalisiert wird. Das gibt dann für diverse Seeps diverse Pulsantworten, die durch Speichern sichern. Das werde ich nun mal als nächstes machen. Und klarerweise sollte eine Aufnahme bei einem perfekten Chassis wie das Original aussehen. Das tut es (meistens) nicht. Verkaufst Du auch Lautsprecher ? Wo muß ich unterschreiben ? Ich gebe zu, in diesem Punkt hast Du mich neugierig gemacht. Wie sieht denn so ein perfektes Chassi aus und mit wie vielen Wegen spielt es Fullrange ? Um später einmal Verzögerungen zwischen den Chassis zu erfassen, muss in der Messung auch irgendeine Referenz enthalten sein. Bei Brutefir (so sind auch die Tutorials verfasst) verzögere ich vorzugsweise den Hochtöner um einen grossen Bereich, z.b. 1000 oder 2000 Samples. Dann findet man die Differenz zwischen den jeweiligen Peaks und kann daraus die reale Verzögerung ermitteln. OK, dass mit dem Versatz der Hochton Sprungantwort hatte ich schon mal gesehen. Ein angleichen eines Basslautsprechers an die Fullrangelautsprecher ist damit aber leider nicht möglich !? Dies ist offenlichtlich schwieriger, da keine Feferenz gibt, richtig ? Latenight hat geschrieben:Wie sieht denn so ein perfektes Chassi aus und mit wie vielen Wegen spielt es Fullrange ? Ich bin zwar nicht Uli, verkaufe auch keine Lautsprecher, aber in meinen Augen und Ohren wäre das soetwas wie die Geithain ME 901K / 801K, Silbersand 501 MK-II, 701, oder die BM Line 35 / 50. Für mich mit Ausnahme der Geithain ME 901K leider alle in unerschwinglicher Ferne. von tom_on_wheels » 26.07.2010, 13:31 Könntet Ihr einem Newbie mal schildern, ob Ihr außer den 4 Room Macros noch andere Berechnungen anstellt? Wie ich es verstehe, wird das Timing der Treiber durch die 4 Macros nicht eingestellt, oder habe ich damit schon alles "automatisiert" erschlagen? Ich habe mir einen Rechner gebaut, der einerseits mit dem BruteFIR USB-Stick mit Linux laufen soll (wenn es denn mal läuft - Soundkarte ist eine RME 9652), um DVBC-Receiver und Phono zu "falten" und andererseits, wenn der USB-Stick nicht gesteckt ist, das total abgespeckte Windows XP mit cMP² und dem Acourate VSTPlugin zu betreiben. von veloplex » 27.07.2010, 12:29 tom_on_wheels hat geschrieben:Ich habe mir einen Rechner gebaut, der einerseits mit dem BruteFIR USB-Stick mit Linux laufen soll (wenn es denn mal läuft Soundkarte ist eine RME 9652), um DVB-C-Receiver und Phono zu "falten" und andererseits, wenn der USB-Stick nicht gesteckt ist, das total abgespeckte Windows XP mit cMP² und dem Acourate VST-Plugin zu betreiben. Also zwei Systeme auf einem. So stell ich mir das auch vor. Kann man dem Rechner beibringen, dass die Linux-Variante nur/immer dann startet, wenn der Stick steckt? Du mußt nur im Bios einstellen, dass der Rechner versucht, über mit USB angeschlossene Gräte zuerst zu booten. Das müßte glaube ich Primary Boot Device heissen. Wenn dann kein Stick steckt, fährt der Rechner über Festplatte hoch und da ist Windows XP drauf. Genaues findest Du, wenn Du z.B. "Bios von USB booten" googelst, da gibt es jede Menge Antworten. Ansonsten ist die Kiste nix besonderes: ein Hifi-Rack-taugliches Gehäuse, ein MiniITX-Board mit einem Intel Atom 330, der braucht keinen Lüfter, eine 2.5-ZollFestplatte in einem Silentmaxx HD-Silencer (kein Geräusch, keine Vibration spürbar) und eine RME 9652 Soundkarte (die ist natürlich gut). Leider ist es nicht so einfach, die RME in SPBlinux und BruteFIR einzubinden. Ich kann mit Linux gar nicht umgehen, ich habe im Analogforum einen freundlichen Kollegen kennengelernt, der das gerade hinzubekommen versucht und bei der Gelegenheit den Kernel gegen den aktuellen Realtime-Kernel austauschen will. Praktisch soll das Ganze am Ende so aussehen: Laptop mit iTunes über HiFace und DVB-C-Receiver und Digital Out des Rechners, alle 3 über SPDIF über Funk CAS-2 (Digitaler Umschalter mit Einschleiffunktion) an PS Audio DL III Wandler. Vom CAS-2 wieder Digital In zum Rechner. Wenn ich die Kiste mit Windows und cMP² betreibe, geht das Digital Out über den CAS zum Wandler. Wenn ich sie als Convolverrechner betreibe, kommt das Signal vom Laptop oder DVB-C-Receiver durch den CAS in den Rechner und geht über Digital Out über den CAS zum Wandler. Ich hoffe, ich habe jetzt nicht den Fred mißbraucht, aber für einen eigenen Fred erschien es mir als zu dürftig. von tom_on_wheels » 27.07.2010, 19:35 wgh52 hat geschrieben:... hat mich auf eine Idee gebracht, mit der man unsere Video-Freunde auch Acourate / BruteFIR näherbringen könnte: Vielleicht gäbe es ja die Möglichkeit die BruteFIR Filter so zu "verkürzen", dass sie "einfach" nicht so weit in den Bassbereich linearisieren und dadurch genügend kurze Latenzzeit eintritt um bessere Lippensychronität zu erreichen, ... Der Preis für eine Korrektur einschliesslich einer Phasenkorrektur ist die damit verbundene Verzögerung. Generell lässt sich jedoch auch eine reine Minimalphasenkorrektur verwenden. Damit reagiert das zugehörige Filter bereits ab dem ersten Sample des Filters. Es verbleibt dabei dann letztlich noch eine Latenzzeit, die durch das typische Convolven per FFT gegeben ist. Es werden dann z.B. genügend Samples des Audiosignals gesammelt um dann damit eine problemlose Faltung zu realisieren. Bei 48 kHz wären das z.B. 1024 Samples, das wären dann ca. 21 ms. Das entspricht einem Schallweg von 7.25 m, wie sich bei einem solchen Abstand von einem Bildschirm ergibt. (Nebenbei: es gibt eigentlich auch noch Prinzipien, mit dem noch weniger Latenz möglich ist, mit JConv hab ich mal 64 samples Latenz getestet. Mit Brutefir geht das nicht). Generell wage ich die Aussage, dass die Exzessphasenkorrektur bei Video nicht nötig ist, durch das Bild wird das Auge und damit auch das Ohr so gefangen genommen, dass die Minimalphasenkorrektur völlig ausreicht. Im übrigen wäre m.E. noch zu berücksichtigen, dass typischerweise die Klangbühne nicht mit dem Bild übereinstimmt. Eine andere Möglichkeit wäre natürlich noch die Verzögerung des Bildsignals. Hierzu kenne ich zumindest ein Beispiel, nämlich ffdshow. Siehe hierzu einen Screendump. Das soll wohl bis 1.5 sek Verzögerung gehen. Im übrigen verbleibt natürlich noch zu festzustellen, dass Acourate minimalphasige Filter ausgeben kann. von modmix » 11.08.2010, 21:57 wgh52 hat geschrieben:Die Latenzzeit müsste eigentlich Rechnergeschwindigkeitsabhängig sein, die genannten 21 ms also je nach PC Systemleistung unterschiedlich ausfallen, richtig oder Denkfehler? Hallo Winfried, Uli's Aussage habe ich so verstanden, daß es einiger Samples bedarf, bevor eine FFT sinnvoll ist. Nimmt man 1024 Samples bei 48 kHz, braucht es 1024/48000=0,021 sec., bis die Samples alle eingelaufen sind - der Rechner sollte also nur schnell genug sein; schneller ändert nichts an der Zeit, die es dauert, bis die Samples alle da sind. Einverstanden? Ulli BTW: Mit den MinPhase-Filtern ist Fernsehen ziemlich ok - 21 msec. sind ziemlich lippensynchron. Etwas 'körnig' ist der Klang, etwas zischelig - aber daß sind erst erste Filter, die bestimmt noch besser gehen. Deine Frage, ob man nur die höheren Frequenzen falten kann, finde ich ziemlich interessant - schließlich habe ich mit der Einmess-Funktion des DD18 im Bass schon ein ziemlich brauchbares Ergebnis... uli.brueggemann » 12.08.2010, 09:18 wgh52 hat geschrieben: modmix hat geschrieben:Deine Frage, ob man nur die höheren Frequenzen falten kann, finde ich ziemlich interessant - schließlich habe ich mit der Einmess-Funktion des DD18 im Bass schon ein ziemlich brauchbares Ergebnis... Bin gespannt, was Uli sagt! Grundsätzlich muss das gehen und ist wohl eine Frage des Filteralgorithmus oder der -parameter: Mein DEQX macht die FIR Frequenzgang und Phasenentzerrung jedenfalls erst ab ca. 200 Hz, ansonsten kann man über den gesamten Audiobereich IIR Equalizer verteilen. Also: Mal sehen was Uli sagt. Also generell geht das sicherlich. Es ist derzeit aber nicht als feste Funktion in Acourate eingebaut. Man braucht dann das in einem anderen Thread beschriebene Vollstudium, um sich alles aus den Einzelfunktionen zusammenzubauen. Ob ich das nun wirklich reinbauen soll, weiss ich noch nicht. Beim DEQX (ich vermute hier mal) und bei Trinnov wird der Frequenzbereich in Bänder zerlegt, die ihrerseits intern mit unterschiedlichen Abtastraten verarbeitet werden. Das nennt sich dann Multiratefilter. Dabei wird dann im unteren Frequenzbereich mit IIR-Filtern gearbeitet, während dann über alles mit FIR-Filtern kürzerer Länge gefiltert wird. Das macht dann z.B. bei einem 1024 taps Filter bei 96 kHz eine Frequenzauflösung von 93,75 Hz. TacT/Lyngdorf arbeiten ebenfalls mit Multirate, aber jedes Filter ist ein FIR Filter. Nebenbei bemerkt erzeugt Lyngdorf durch die Multiratezerlegung deutliche Gruppenlaufzeitverzerrungen, selbst im Bypassmodus. Bezüglich einer möglichen Lösung bei Acourate denke ich da an ein Exzessphasenkorrekturfilter (das ja per se ein Allpass ist), bei dem eben nach normaler Berechnung unterhalb einer vorzugebenden Frequenz die Gruppenlaufzeit konstant ist. Das ist kein Problem. Die Frage ist nur, wie der Übergang zwischen dieser konstanten GLZ und der sich ändernden GLZ (Korrektur) zu gestalten ist. Da gibt es denn im Übergangsbereich eventuelle Auswirkungen durch die hierdurch entstehenden Phasendrehungen, speziell wenn die Kanäle unterschiedlich sind. No lunch for free (except I'm the food). PS: ein minimalphasiges FIR-Filter kann sich wie ein minimalphasiges IIR-Filter verhalten, ist aber aufgrund der Definition als finites Filter (also endlich) doch etwas anderes als ein infinites (unendliches) Filter. Mit FIR Filtern sind beliebige Frequenzgänge einfach zu realisieren, bei IIR-Filtern ist das aufwendiger. Hallo Acourate Gurus, heute wollte ich meine ersten Schritte mit Acourate machen, um die Berechnungen, die mein DEQX ja selbst macht und implementiert, mit Acourate nachzumessen und zu sehen was da so herauskommt. Also habe ich über die Fireface UC mit Beyerdynamic Messmikro und dem LogSweepRecorder2 Messungen am Hörplatz durchgeführt. Die Installation war problemlos, LSR2 hat die Fireface sofort "gesehen" und nach vorsichtigem akustischem Einpegeln auch brav zwei WAV Dateien erzeugt, eine in Stereo, eine Mono. Toll ging das, extrem einfach! Also startete ich vergnügt Acourate und dachte, der LSR2 hätte erzeugt, was Acourate braucht und Acourate wird mir nun die Messergebnisse berechnen und anzeigen. Nun... genau bei diesem ersten Schritt bin ich leider erstmal gescheitert. Acourate verlangt eine "normale und eine "Inverse" Datei. Die "inverse" ist aber irgendwie gar nicht da! Woher sollte ich sie "zaubern"? So. Da stehe ich nun und was muss ich jetzt machen? Wie "invertiere" ich die WAV Datei? Oder habe ich bei LSR2 was falsch gemacht, so dass die falsche Datei erzeugt wird? Aber eigentlich müssten doch die LSR2 Defaults Acourate direkt untestützen... Ich weiss nicht was los ist. Ich will doch eigentlich nur die LSR2 erzeugten Messungen in Frequenz, Phase bzw. Impulsantwort mit Hilfe von Acourate darstellen. Mehr nicht... von Fujak » 16.08.2010, 06:38 Hallo Winfried, Du hattest mich ja gestern per PM versucht zu erreichen (war leider unterwegs). Zu Deinem jetztigen Problem: 1. Der LSR2 erzeugt 2 Dateien (sofern Du auf Stereo-Einstellung gemessen hast): Pulse44L.dbl und Pulse44R.dbl. Zu finden im Verzeichnis von LSR / Unterverzeichnis "Pulses". 2. Die beiden Files legst Du in ein eigene Verzeichnis ab z.B. "Winfried Messung 01". In Acourate legst Du einen sog. Workspace auf dieses neue Verzeichnis fest. Dann lädst Du die beiden Puls-Dateien in Kurve 1 und 2. Dann hast Du eine rote (L) und eine grüne (R) Kurve. 3. Zur Erstellung der Filter rufst Du nun nacheinander die Room-Makros 1 bis 5 auf und arbeitest sie gemäß der Kurzanleitung von Uli ab. von uli.brueggemann » 16.08.2010, 07:29 AcourateLSR2 benutzt zwei Unterverzeichnisse: \LSRSweep und \Pulses In \LSRSweep wird der Logsweep, die Inverse und der aufgenommene Logsweep abgelegt. In \Pulses sind die ermittelten Pulsantworten zu finden. Die Unterverzeichnisse sollten sich im Programmverzeichnis von AcourateLSR2 finden. Möglicherweise machen da Vista und Win7 aufgrund von Zugriffsrechten (UAC etc.) Probleme und erlauben nicht das Schreiben von Daten inkl. ini-Datei ins Programmverzeichnis. Dann sollten die Verzeichnisse im Basisverzeichnis des Benutzers unter \AppData\Roaming o.ä. stehen. von wgh52 » Ich benutze WinXP mit allen updates und Service-packs, darauf habe ich zum erstmal Probieren die 30 Tage Version von Acourate installiert. Im Verzeichnis \Pulses stehen genau zwei dateien: Pulse48L.dbl Pulse48R.dbl Im Verzeichnis \LSRSweep stehen auch genau zwei Dateien: LogSweep48.wav LogSweep48_rec.wav Eine Funktion zum Anlegen eines Workspace habe ich nicht gefunden. Pulse Dateien kann ich laden, aber wie's scheint immer nur eine. Das leigt wohl an der Trial-Version, aber ich will ja auch erstmal nur "kennenlernen". Jetzt sehe ich F-Gang, Gruppenlaufzueit und Sprung- bzw. Impulsantwort-Kurven. Bei Gruppenlaufzeit und Frequenzgang würde ich gerne die Reflektionseinflüsse ausblenden und dachte das ginge mit einer Fensterfunktion im Impulsantwortdiagramm, gign aber nicht. Und die Messungen würde ich auch gerne mal glätten. von uli.brueggemann » Unter dem Menü gibt es die Möglichkeit eine aktive Kurve zu selektieren (radio button). Also Kurve1 wählen, linken Puls laden. Kurve2 wählen, rechten Puls laden. Das simple Ausfenstern einer Reflektion ist nicht wirklich hilfreich. Wenn die Reflektion nach 4 ms kommt und ab da alles abgeschnitten wird, fehlt jegliche Information für Frequenzen unter 250 Hz. Und bei 10 kHz verbleibt immer noch zuviel Gezappel im Frequenzgang. Daher ist bei Acourate das Prinzip der frequenzabhängigen Fensterung realisiert. TD-Functions - Frequency Dependent Window. Dazu muss die zu fensternde Kurve vorher gewählt sein. Die Angabe der Fensterbreite erfolgt in Zyklen. Also eine Angabe von 3/3 bedeutet über den gesamten Frequenzbwereich 3 Zyklen. Das ist bei 20 Hz = 150 ms. Bei 1 kHz = 3 ms. Bei 20 kHz = 0.15 ms. Eine Angabe von 20/10 bedeutet 20 Zyklen bei niedrigen Frequenzen, 10 Zyklen bei hohen Frequenzen. Dazwischen wird entsprechend interpoliert. Einfach mal spielen. Die Trial-Version ist übrigens veraltet, also eher nur gedacht zum Rumspielen und Kennenlernen der Oberfläche. Wesentliche Rechenfunktionen sind inaktiv (auf Basis von bösen Hack-Erfahrungen auch nicht mehr im Programm enthalten). Falls Du trotzdem mal hören möchtest, kannst Du mir auch die Pulse und zwei wavDateien Deiner Wahl schicken. Das erlaubt dann bei Dir zuhause den Vergleich korrigiert/unkorrigiert. @Winfried: Du verwendest jetzt das Beyerdynamic MM1 zum Messsen. Ich hatte auch überlegt, mir das anzuschaffen, mich dann aber für ein Superlux ECM-999 plus Kalibrierung entschieden, das dem von Dir zuvor verwendeten Behringer sehr stark ähnelt. Wie unterscheiden sich das MM1 und das Behringer, und wird da MM1 mit Kalibrierungsdaten geliefert? Das MM1 wird mit individuellem Frequenzgangschrieb (also mit Seriennummer) geliefert, leider nicht mit Kalibrierdatei. Ich habe den F-gang von Uli prüfen lassen und in meinem speziellen Falle erscheint eine Kalibrierung nicht notwendig, weil das Mikro sehr schön linear ist. Weiters ist auch die AD Wandlung des RME sehr linear, die Fehler die hier reinkommen sind grössenordnungsmässig sehr klein. Ich habe das alles auch mit HiFi-Selbstbau besprochen, die ja Kalibrierservice anbieten. Der sehr nette Messtechniker (der die Kalibrierungen selbst macht und Ratsuchende sehr gut über Möglichkeiten, Sinn und Grenzen von Messung und Kalibrierung informiert) hat mich in meinem Vorgehen bestärkt (obwohl er mir dadurch natürlich keine Kalibrierung verkauft hat). Die Hauptunterschiede/-vorteile des MM1 gegenüber Behringer, soweit ich sie erinnere: - viel bessere Kugelcharakterisitk - bessere Linearität - weniger Serienstreuung - bessere Höhencharakteristik durch die Membrankonstruktion Das MM1 ist allerdings auch einiges teurer als das Behringer. Mein Behringer (mit Kalibrierdatei) gehört zum Lieferumfang des DEQX, darum verwende ich es mir diesem zur Einmessung und kontrolliere seit kurzem mit dem MM1 RME und Unlis LSR2/Acourate. modmix wgh52 hat geschrieben:Das MM1 wird mit individuellem Frequenzgangschrieb (also mit Seriennummer) geliefert, leider nicht mit Kalibrierdatei. Ich habe den F-gang von Uli prüfen lassen und in meinem speziellen Falle erscheint eine Kalibrierung nicht notwendig, weil das Mikro sehr schön linear ist. Aus 'romantischen' Gründen habe ich mir ein MM1 zugelegt und bei http://hifiselbstbau.de kalibrieren lassen. Hier die 90-Grad Kurve (beachte die Skala): Leider hat die Kalibirierung nur die Amplitude und nicht die Phase - gut, bei dem Frequenzgang sollte nicht all zu viel passieren. Lt. Th.Ahlersmeyer wäre das Fehlen der Phase nicht weiter schlimm... von uli.brueggemann » 17.08.2010, 19:06 Du könntest folgendes mit der eingelesenen Kalibrierdatei tun: 1. TD-Functions - Phase Extraction - below=25 (Hz) - linearphase Das schnibbelt das Abfallen des Frequenzgangs unter 25 Hz weg. Keine zuverlässige Information darunter. 2. FD-Functions - Amplitude Inversion - minimumphase (die zum minimalphasigen Mikroverhalten zu verwendende Inverse ist ebenfalls minimalphasig). Wenn Du das Ergebnis mal mit dem Ausgangssignal faltest (TD-Functions Convolution), dann solltest Du sehen, dass sich damit ein perfekter Frequenzgang ergibt. Nun einfach die Inverse aus Schritt 2 als mono-wav-Datei abspeichern und als Mikrofilter im Logsweeprecorder LSR verwenden. Anstelle Schritt 1. könntest Du auch TD-Functions - Phase Extraction minimumphase rechnen. Dann hast Du die gewünschte Phase des Mikros. modmix hat geschrieben:Ist bestimmt schon mal gefragt worden: Beim Log Sweep Recorder und beim Room Macro1 kann man eine Filterdatei angeben - einmal müßte doch reichen, oder? Meine Messung von neulich mit dem so gewonnenen Kalibrierungsfile durch die Room Marcros zu schicken, sollte doch reichen... Ja das reicht schon. Es gibt eben viele Wege nach Rom Wobei in Macro1 die Invertierung der Kalibrierdatei automatisch vorgenommen wird. Die Makro sollen eben das Ganze vereinfachen. Acourate resetten ? Gibt es eine Möglichkeit das Programm zu re-setten. Also quasi alle Einstellungen auf null zu bringen, ohne dass man das Prog neu installieren muss? Vielleicht sollte ich doch besser noch schreiben, worum es geht: Der Logsweeprecorder will einfach keine Signale mehr ausspucken. Bisher hat es immer funktioniert. Im FIR-Player werden alle Signale normal ausgegeben. Dann hab ich mir mal den separaten LSR gezogen. Auch keine Probleme, obwohl alle Einstellungen identisch sind. Da die ausgebende und die aufnehmende Soundkarte micht identisch sind, arbeite ich mit Asio4all. Dann der Frequency Allocator als Weiche. Hat jemand eine Idee? uli.brueggemann Generell würde das Umbenennen der Acourate.ini einen Reset bewirken. Frage 1: steht der Schieberegler im Recorder auf 0, also ganz links? Frage 2: welchen Wert hat der Eintrag Amplitude Sweep in [Logsweep] in der Acourate.ini? Der Regler steht ganz rechts auf 0, wenn ich ihn nach links schiebe gehts in den Minusbereich bis unendlich. In der Ini steht unter Amplitude Sweep als Wert 0.0 [LogSweep] Samplerate=44100 SamplerateIndex=0 SweepStart=15 SweepEnd=22050 Duration=10 Slope=0 FadeIn=0.5 FadeOut=0.1 Invert Polarity=0 PeakOpt=1 Level=100000 freezegain=0 ChannelSelection=0 PulseLength=0 Amplitude Dirac Checked=0 Amplitude Sweep=0.0 Amplitude Dirac=0.8 uli.brueggemann » Bitte Amplitude Sweep auf 0.8 ändern. Hallo Ihr Aktiven, Dazu brauche ich Euren Rat: Ich habe zwei Satelliten, die den Hoch- und Mitteltonbereich bedienen und über deren Endstufe bei 150 Hz nach unten abgeregelt werden. In den Ecken hinter dem Hörplatz stehen zwei grosse Basshörner, diese laufen über einen Bass DSP, der nötig ist, um den Bässen ihre Trennfrequenz vorzugeben (80 Hz). Ohne Korrektur durch mit Acourate berechneten Korrekturdateien habe ich ein Delay eingestellt (140 cm), das passt ganz gut. - Macht es Sinn, dieses Delay im DSP bei den Messungen beizubehalten oder ist es zielführender, das Delay rauszunehmen und alles Acourate zu überlassen? - Wäre es besser, den Bass höher laufen zu lassen und wiederum Acourate die Arbeit zu überlassen? - Falls ich das Delay rausnehme, geht die Zeitkorrektur nur über die Sprungantwort mit Makro 4 oder muss ich irgendwo anders noch ein Delay einstellen? Irgendwo meine ich gelesen zu haben, dass man das in Acourate könnte. Erst mal werde ich mit cMP² und Acourate VST-Plugin arbeiten. Meinen USB-Stick mit BruteFIR habe ich leider noch nicht zum Laufen bekommen. Trotz Hilfe von Uli und eines Kollegen aus dem Hififorum, der wie ich eine RME 9652 betreibt, bekomme ich immer die Meldung "Invalid Card Number". Der Forenkollege hat mir seine "go" und "hspd_spdif" geschickt, die sind fast identisch mit meinen, hat aber nicht geholfen. Die spbcfg ist ebenfalls editiert worden. Hat vielleicht jemand von Euch auch eine RME 9652 am Laufen und könnte mir seinen Stickinhalt mal zum Testen zusenden? Momentan benötige ich nur SPDIF In und Out für 2-Kanal-Stereo, später soll mit einem Expansion Board noch das Phonosignal analog rein und über SPDIF digital wieder raus. Mir ist nicht ganz klar, in welchen Dateien ausser der spbcfg, go und hdsp-spdif noch eingegriffen werden muss. von uli.brueggemann » 31.08.2010, 10:09 tom_on_wheels hat geschrieben: bekomme ich immer die Meldung "Invalid Card Number". Tom, bitte im BIOS eine üblich vorhandene onboard-Soundkarte deaktivieren. So dass die 9652 nur die einzige Karte im System ist. Hallo Uli, im Bios gibt es nur eine einzige Position zum Abschalten des Onboard-Sounds, nämlich unter "Integrated Peripherals" Onboard Sound Controller", dieser Punkt steht auf "disabled". Ich hatte ja schon einen Stick mit der Delta Audiophile auf dem Rechner laufen. Jetzt ist es aber eine RME 9652. von uli.brueggemann In spbcfg braucht es snd=snd-hdsp (bei einer RME HDSP 9652 Karte). Dann kommentiere mal alle Zeilen in go mit #, dann endet der Bootvorgang in der Konsole. Rennt dann der einfache Befehl amixer ohne Probleme ? Der Befehl lsmod sollte auch die 9652 Karte zeigen. von tom_on_wheels Der Bootvorgang stoppt nach folgender Zeile usbcore: registered new interface driver lirc_imon und meldet Critical error while initializing, abort sock_connect: connnect failed: Connection refused Error. Could not connect to LCDd on port 13666 Typematic Rate set to 11.0 cps (delay = 500 ms) type halt to shutdown... wenn ich dann amixer eingebe, sehe ich nicht editierbare Zeilen, die beginnen mit Item0: "None" Simple mixer control "Sample Clock Source" ,0 ... wenn ich lsmod eingebe wieder nicht editierbare Zeilen snd_hwdep 6404 1 snd_hdsp, Live 0x8863000 ... Das müßte ja schon ein Verweis auf die RME sein, oder? Taucht jedenfalls noch ein paar mal auf. von uli.brueggemann » Die ersten Meldungen beziehen sich auf einen nicht vorhandenen Infrarot-Receiver. Unkritisch. halt to shutdown ist nur ein Hinweis für den User. Du kannst mit dem Befehl halt eben das System runterfahren. Die amixer-Ausgabe zeigt, dass die Karte nicht gefunden wurde. Kritisch. Das lsmod zeigt nur, dass snd-hdsp geladen ist, aber nicht mehr. Evtl. ist noch der Befehl lspci hilfreich, der PCI-Devices auflistet. Da sollte vielleicht mehr dabei sein. Es mag sein, dass die Firmware der 9652 nicht passt. von tom_on_wheels » lspci hat eine Zeile 01:02.0 Multimedia audio controller: Xilinx Corporation RME Hammerfall DSP (rev (kann ich nicht mehr lesen) 6c Habe den Rechner mal mit Windows XP hochfahren lassen, Firmware ist Hardware Revision 108, Treiber 3.08.4 vom 04/01/2010. Könnte es sein, dass die Firmware zu neu ist? Ach, wenn ich alsamixer eingebe, wird die RME angezeigt. von deathlord » tom_on_wheels hat geschrieben:Könnte es sein, dass die Firmware zu neu ist? Könnte sein. Ich mag mich noch wage erinnern, dass meine 9652 nach einem firmwareupgrade nicht mehr lief und ich downgraden musste. Das war allerdings mit einer uralten ALSA Version. Du musst es wohl einfach ausprobieren. @ Oliver: wird wahrscheinlich so sein. Ich bin aber in einer Zwickmühle: der Rechner läuft ja einerseits mit Windows XP als cMP² Maschine, klingt super und soll mit dem Acourate VST-Plugin arbeiten. Andererseits soll er nach booten vom USB-Stick mit BruteFIR auch das Laptop, den DVB-C-Receiver und später analog auch das Signal vom Phonovorverstärker convolven. Der Rechner ist ausser dem Minlogon komplett optimiert und nun müßte ich für ein Firmware-Downgrade wieder diverse Dienste im XP aktivieren, irgendwie fehlt mir die Lust dafür, nachdem das System so gut läuft und spitze klingt. Uli hat freundlicherweise angeboten zu versuchen, die Karte zum Laufen zu kriegen, wenn ich sie ihm zuschicke. Nachdem meine Endstufen so lange weg waren, würde ich nun ungern eine Weile auf die Quelle verzichten... @ alle Hat vielleicht jemand von Euch ein paar Hinweise auf meine Fragen? Hier noch mal: tom_on_wheels hat geschrieben:Dazu brauche ich Euren Rat: Ich habe zwei Satelliten, die den Hoch- und Mitteltonbereich bedienen und über deren Endstufe bei 150 Hz nach unten abgeregelt werden. In den Ecken hinter dem Hörplatz stehen zwei grosse Basshörner, diese laufen über einen Bass DSP, der nötig ist, um den Bässen ihre Trennfrequenz vorzugeben (80 Hz). Ohne Korrektur durch mit Acourate berechneten Korrekturdateien habe ich ein Delay eingestellt (140 cm), das passt ganz gut. - Macht es Sinn, dieses Delay im DSP bei den Messungen beizubehalten oder ist es zielführender, das Delay rauszunehmen und alles Acourate zu überlassen? - Wäre es besser, den Bass höher laufen zu lassen und wiederum Acourate die Arbeit zu überlassen? - Falls ich das Delay rausnehme, geht die Zeitkorrektur nur über die Sprungantwort mit Makro 4 oder muss ich irgendwo anders noch ein Delay einstellen? Irgendwo meine ich gelesen zu haben, dass man das in Acourate könnte. • von Udor » In Bezug auf dein Problem mit der 9652 und Linux könnte es sein das die Firmware gar nicht geladen wird. Bei meiner Multiface muss die Firmware beim hochfahren mit einem firmwareloader(ist im Paket alsa-utils enthalten) geladen werden. Bin mir jetzt nicht sicher ob das bei der 9652 auch der Fall ist könnte aber gut sein da die gleichen Treiber verwendet werden. tipp mal "dmesg" in die kommandozeile. Wenn die Firmware korrekt geladen wird dann sollte da ein entsprechender Eintrag sein bzw. eine Fehlermeldung das die Firmware nicht geladen werden konnte. So sieht das bei mir aus: RME Hammerfall DSP 0000:03:00.0: firmware: requesting multiface_firmware_rev11.bin Hammerfall-DSP: loading firmware Hammerfall-DSP: finished firmware loading Zu: Macht es Sinn, dieses Delay im DSP bei den Messungen beizubehalten oder ist es zielführender, das Delay rauszunehmen und alles Acourate zu überlassen? Würde ich auf jeden Fall machen. Wenn schon denn schon. Auf Ulis Homepage gibt es dafür ein Tutorial wie die Delays ermittelt werden. - Falls ich das Delay rausnehme, geht die Zeitkorrektur nur über die Sprungantwort mit Makro 4 oder muss ich irgendwo anders noch ein Delay einstellen? Irgendwo meine ich gelesen zu haben, dass man das in Acourate könnte. Nein, die zuvor ermittelten Delays werden in der Config vom jeweiligen Convolver eingetragen. Hab noch mal ein wenig gegoogelt wegen der Firmwaregeschichte. Bei der 9652 braucht es keinen Firmwareloader wie bei der (externen)Multiface. Es wird auch keine Firmware geladen bei der Multiface sondern Konfigurationseinstellungen. Das ganze hat also nichts mit der richtigen Firmware zu tun die in einen Flashspeicher geladen wird. Mit anderen Worten hilft dir das wohl auch nicht weiter. Allerdings liest man sehr häufig von Problemen unter Linux mit aktuellen Firmwares. D.h. ein Downgrade der FW könnte in der tat helfen. Was für eine FW-Revision hast du jetzt ? von floschu » 21.10.2010, 11:38 Ich habe mich gerade mithilfe des Tutorials auf der Acourate-Homepage erstmalig mit der Trial-Version des Programms versucht. Leider waren die Ergebnisse nicht so erfolgreich, wie sich auf den angehängten Screenshots erkennen lässt. Schon bei der Aufnahme mit Audacity sieht das Ergebnis anders aus, als im Video des Tutorials: Dies bestätigt sich auch im Programm Acourate: Geht aus diesen Screenshots hervor, was ich falsch gemacht habe? Ich hoffe, Ihr könnt mir helfen! Messequipment ist ein "img StageLine ECM-40", angeschlossen an einem "img StageLine MPR-1", verbunden mit dem Line-In einer "Creative Soundblaster Audicy 2" von uli.brueggemann Die Audacity-Aufnahme zeigt, dass da wohl nicht über das Mikro aufgenommen wurde. Es sieht eher so aus als ob der Ausgang zum Eingang rückgeschleift ist. Das ist also irgendein Problem mit Soundkarte bzw. Audacity. Schön zu sehen auch, dass bei der Aufnahme die Polrität umgedreht wird (Diracpulse). Zum Test müsste Audacity bei der Aufnahme z.B. direkt ein Händeklatschen oder andere Geräusche anzeigen (also ohne vorheriges Laden des Logsweeps). von floschu Habe gerade mal ausprobiert, was Du mir vorgeschlagen hast: Wenn ich mit Audacity aufnehme und dabei in die Hände klatsche, kann ich die Auslenkungen auf dem Monitor sehr gut sehen. Übrigens auch, wenn ich gleichzeitig den LogSweep über die Lautsprecher abspiele und zusätzlich in die Hände klatsche. Der LogSweep selber sieht leider nach wie vor genau so aus wie vorher... Hast Du noch eine Idee, woran es liegen könnte? Die Option "Multiplay" bei Audacity habe ich übrigens wie in dem Tutorial gezeigt aktiviert. von uli.brueggemann multiplay? Schick bitte mal einen Screendump von den Einstellungen (Strg-P) - Aufnahme. von floschu » Meinst Du davon: von uli.brueggemann » 21.10.2010, 14:45 • Florian, bin nun ratlos mit Audacity. Mach mal eine Aufnahme über www.acourate.com/AcourateLSR2Setup.exe (ASIO-Treiber erforderlich). Schick mir dann die Pulsantworten aus dem Verzeichnis \Pulses per PM. von veloplex Ich habe mich mal wieder festgefahren und komme allein nicht weiter. Dieses Mal geht es um Klirrmessungen mit acourate. Ich habe es versucht, wie Uli es in einem Anderen Thema hier vorgeschlagen hat: um die Klirrs zu ermitteln benötigst Du Acourate und dort den Menüpunkt Logsweep. Also damit den Logsweep erzeugen und auch dort mit dem Recorder aufnehmen. Ähnlich wie bei AcourateLSR. Dann die Convolution ausführen, das gibt dann im Zeitdiagramm eine lange Sequenz. Mit Maus links und recht vom Peak markieren. Dann Extract Pulses & Harmonic Distortion ausführen. Das AcourateLSR ist nur ein einfaches Hilfsmittel für eine schnelle Aufnahme. Die Pulse sind aber im eigenen .tr-Format. Acourate selbst kann diese auch lesen. Dann einfach wiederum als .dbl abspeichern. Um vielleicht besser heraus zu fenden, wo mein Fehler leigt, habe ich ein paar Bilder gemachtt. Erstmal ein Logsweep. Nicht irritieren lassen, dass dort keine Werte stehen, das liegt am Snippingtool- Die Amplitude Pulse Dann Convolution Und das Ergebnis (wo wird das gespeichert?) Dann habe ich die Pulsedatei geladen (Pulse44L), richtig?? und gefenstert Dann Extract Pulses & harmonic distortions Dort steht dann, dass das Fenster vor dem Pulse zu kurz gewählt wurde. Aber was bedeutet das? Ich hab das Gefühl, das das irgendwas mit der Convolution zu tun hat. Wo liegt der Fehler? Mein Ziel ist es, mit Acourate aktustische Klirrmessungen durchzuführen. Dazu wollte ich ersteinmal den Klirr der Soundkarte messen. Der Aufbau sieht also ganz einfach aus, vom Soundkartenausgang zum Soundkarteneingang. von uli.brueggemann » Kleine Theorie vorab: der Logsweep wird mit der Inversen gefaltet. Das Ergebnis für einen 60 sek Sweep ist dann roundabout 120 sek lang. Viel zu lang für eine Pulsantwort. Diese wird somit durch Herausschneiden und Fenstern gewonnen. (Am Anfang war bei Acourate das Herausschneiden und Fenstern durch den Benutzer durchzuführen. Das ist nun vereinfacht, Acourate macht es selbst, wenn man mit dem Logsweeprecorder arbeitet.) Die Aufnahme ist aber nicht verloren. Sie wird im Unterverzeichnis \Logsweep abgespeichert, als Logsweepxx_rec.wav. Für die Klirrauswertung braucht man die gesamte Aufnahme. Also dann über Menü Logsweep - Logsweep Convolution die Datei Logsweepxx_rec.wav mit Inversexx.wav falten. Dabei die Checkbox Extract Pulses deaktivieren ! Das Ergebnis in Kurve 1 speichern. Und dann in dem Ergebnis den Puls mit Maustaste links/rechts markieren und Menü Logsweep - Extract Pulse & Harmonic Distortions laufen lassen. von bigman13 » Eine Frage zur Gewinnung des Frequenzganges und der in diesem Zitat angesprochenen Fensterung: "Acourate wertet das Zeitsignal aus. Und man kann nun bei der durchgeführten frequenzabhängigen Fensterung sogar noch aussuchen wieviele Zyklen man haben möchte, also wie breit das Fenster ist. Das ist dann bei 10 kHz eben um den Faktor 100 schmaler/enger als bei 100 Hz. Und wenn man zwei Zyklen wählt dann ist man doch schon nahe am Direktschall. In der Praxis nehme ich beim Rechnen immer so 10 bis 15 Zyklen Breite. Was dann bei 10 kHz bedeutet dass alles was später als 1 ms bis 1.5 ms kommt erst gar nicht mehr berücksichtigt wird. Bei 10 Hz wären das 1 sek bis 1.5 sek. Es muss jedem klar sein dass dann in jedem Raum Reflektionen mit drin vorkommen." Ganz naiv gefragt und um beim 1kHz Beispiel zu bleiben: In den 1ms ist der Direktschall doch gerade 34cm von den LS weg. Ich messe aber z.B bei 2.14m. Wie geht das? Ermittelt man erst den Mikrofonabstand und "fenstert" um diesen Offset herum? von uli.brueggemann » Ganz naiv geantwortet: es wird doch das Signal gefenstert welches am Hörplatz aufgenommen wird. Das ist dann zu diesem Zeitpunkt der Aufnahme bereits eingetroffen. Das Fenster weiss nichts davon, wann der Schall den LS verlassen hat und wie weit der Weg war. Und ein Fenster mit 15 Zyklen misst dann eben bei 1 kHz das was innerhalb von 15 ms nach dem Eintreffen am Mikro passiert. So z.B. dass dann der Schall auch einen zusätzlichen Umweg über einen Tisch, einen Fussboden, eine Seitenwand oder was auch immer nimmt. Typischerweise vom Peak der Pulsantwort ausgehend wird gefenstert. Man kann jeweils ein halbes Fenster nach links und ein halbes Fenster rechts vom Peak verwenden. Die Breite lässt sich je Richtung auch unterschiedlich gestalten. Erfahrungsgemäß macht der Hochtöner den stäksten Peak. Ideal wäre ein DiracPuls. Nachhallmessung mit Acourate • uli.brueggemann hat geschrieben:...wenn ich mal 2.5 m als Raumhöhe annehme ergibt sich als Toleranzkurve nach Studio-Norm das folgende Bild Die Toleranz beschreibt gerade die von Dir zitierten 0.2 sek. Gezeigt ist weiterhin auch die Frequenzabhängigkeit, also die Erweiterung der Toleranz hin zu tieferen Frequenzen. Nichtsdestotrotz, wenn die Angaben für Deinen Raum stimmen (da vertrau ich einfach Deinen Angaben), dann hat alles seine Richtigkeit und mir verbleibt nur zu sagen, dass ich das auch gerne hätte. Also kann Acourate aus einer LogSweep Messung eine Meßkurve für dieses Diagramm generieren und blendet das Toleranzfeld aus den Raumabmaßen dazu ein? Mein Raum ist L-förmig. Kann/muss man das berücksichtigen? von uli.brueggemann » 17.12.2010, 13:38 Acourate rechnet die Nachhallkurve aus der Pulsantwort (die ihrerseits wiederum aus der Faltung der Logsweepmessung mit der Inversen entsteht). Dazu braucht es dann noch das Raumvolumen welches man als Parameter vorgeben kann. Daraus ergibt sich die Lage der Toleranzkurven (DIN oder EBU). Es ist auch ein L-Raum möglich. Kannst Du mir eine Pulsantwort zur Verfügung stellen? von schauki » 17.12.2010, 14:44 Die NHZ ist als solche ziemlich klar definiert. Sie ist ein Raum-Parameter und gilt eigentlich nur wo eine gleichmäßige Energieverteilung des diffusen Schallfeldes vorhanden ist. Der Bereich darunter ist neben dem Raum selbst auch Positionsabhängig. Bei mir z.B. liegt die sog. Schröderfrequenz (die Frequenz über der die Energieverteilung gleichmäßig ist - überall im Raum) bei ~300Hz. Ab da gilt das Strahlenmodell. Zwischen ~300Hz und ~30Hz befindet sich der Raum im Bereich der Raummoden hier gilt dann das Wellenmodell, die NHZ ist mehr oder weniger positionsabhängig. Unter den 30Hz, das ergibt sich bei mir vorrangig aus der längsten Raumdimension 5,2m (Lambda von 65Hz - und dann halbe) gilt dann nur noch das Durckmodell, der Druck steigt gleichmäßig/gleichzeitig im ganzen Raum an. Kurz gesagt richtig gut vergleichbar sind Räume untereinander erst über der Schröderfrequenz. Für Vergleichsmessungen selbst also z.B. nach RA Maßnahmen, ist natürlich erst mal das Ergebnis vorher/nacher am gleichen Punkt interessant. Zu Accourate: Ich finde die Darstellung von Acourate bzgl. der NHZ wirklich sehr gut. 1) das Toleranzfeld dass sich nach dem Raumvolumen einstellt 2) hohe Auflösung (bei vielen anderen Programmen ist bei Terzglättung schluss) von uli.brueggemann » 17.12.2010, 16:35 mit der Annahme einer Raumhöhe von 2.5 m ergibt sich ein Raumvolumen vom 99 m³. Das zugehörige Bild der Nachhallzeit, einmal für DIN Musik und dann den Toleranzen für EBU Studio: Zusätzlich sind die ungeglätteten Frequenzgänge dargestellt. von uli.brueggemann » 17.12.2010, 18:38 Ich seh soweit auch keinen unmittelbaren Handlungsbedarf, es sei denn Du willst unbedingt weniger Nachhall (Zielrichtung Studio). von Udor » 17.12.2010, 22:51 Wie man das in Acourate allerdings hinkriegt hätte mich eigentlich dann doch noch interessiert (andere wohl auch) oder ist das schwierig? PulseL und PulseR als Curve 1+2 laden dann TD-Functions>Reverberations Time. Die Kurven werden dann automatisch aus PulseL+R errechnet. Optional kannst du dann noch das Raumvolumen (das hat Einfluß auf die Sollkurven) angeben und die Auflösung auswählen. wgh52 hat geschrieben:1. Da ich kein Studio habe, sondern ein Wohnzimmer, ist die DIN Toleranz für mich eher relevant. Das ist die Frage, grundsätzlich gibt für div. Räume/Anwendungen entsprechende Toleranzfelder. Z.B. haben Sääle für Große Orchester oft mehrere Sekunden NHZ. Hier sollte man sich dem Unterschied Originalraum und Wiedergaberaum, bewusst sein. Man muss sich in den Fall nur vorstellen, einmal ein Orchester im goldenen Saal in Wien zu hören und einmal eine Aufnahme davon über LSP wiedergegeben im gleichen Saal. 2. Weil der Nachhall innerhalb des DIN Toleranzfeldes bleibt ist bei mir zumindest nachhallzeitmäßig kein Handlungsbedarf. Kommt eben drauf an wo man hinwil. Es gibt auch für Räume in denen primär vorgetragen wird (Klassenzimmer,...) entsprechende Toleranzen. Daneben gibt es noch ein paar Werte für Sprachverständlichkeit, Klarheit,... das kann man auch messen - weiß jetzt nicht ob Accourate das kann, ARTA hatte soweit ich weiß ne Funktion (die ich nie ernsthaft genutzt habe). Die Frage ist, was muss der Raum können damit man darin am besten mit ner HifiAnlage hören kann. 3. Mein subjektiver Eindruck, dass ich, möglicherweise wegen der "Zerklüftung" durch Möbel usw., einen akustisch "gutmütigen" Raum habe scheint bestätigt. Jup! Was leider in die reine NHZ nicht eingeht sind direkte Reflexionen. Unterm Strich sehe ich darin vor allem in kleinen Räumen (also die üblichen Wohnzimmer) eher das Problem. Es sind einfach diese vielen fiesen pegelstarken Reflexionen die stören. Eine kurze NHZ mit starken frühen Reflexionen ist imho schlechter als ein höhere mit weniger starken Reflexionen. Wie gesagt die NHZ ist von Haus aus nur dort als solche definiert wo eine gleichmäßige Energieverteilung des diffusen Schallfelds vorliegt. Bzgl. des Volumes ist ja das vorrangig für die Bestimmung des Toleranzfeldes nötig. Ändert aber nichts an der NHZ die ja echt gemessen ist. Man müsste also in der Norm genau nachlesen ob die Toleranz z.B. nur für Quaderförmige Räume gilt. Lautsprecherspezifische Vorfilter mit Acourate Noch im Ohr sind mir Ulis Bemerkungen, dass Korrekturfilter umso besser gelingen, je mehr man vorab über die Filtereigenschaften des Lautsprechers weiß. Wenn ich es richtig verstanden habe, kann man sich unter Kenntnis des Filtertyps und der Übergangsfrequenzen mit Hilfe von Acourate einen lautsprecherspezifischen "Prefilter" basteln und das Messsignal mit diesem Filter vorfalten (ähnlich wie ich es z.B. mit meinem Lyngdorf-Prefilter* mache). Damit hätte man schon eine ganze Menge Störeinflüsse rausgerechnet und Acourate könnte sich noch besser auf seine eigentliche Aufgabe, die Raumkorrektur, konzentrieren. *Ihr erinnert euch: mein Lyngdorf DPA-1 verändert die Sprungantwort ein wenig. Meine Frage lautet nun: Wie erstelle ich mir so einen lautsprecherspezifischen Vorfilter? von uli.brueggemann Ups, da bin ich vielleicht schon mal zuerst aufgefordert. Also ein Beispiel für einen 3-Wege-LS mit Butterworth-XO 2ter Ordnung bei Frequenzen 200 Hz und 3 kHz: 1. Mit dem XO-Generator die XO-Filter erzeugen (am besten einen eigenen Workspace dafür nutzen). 2. Die Filter XO1, XO2 und XO3 laden und mit TD-Functions - Phase Extraction minphase in minimalphasige Filter wandeln. 3. Die drei Filter mit TD-Functions - Addition addieren 4. Mit TD-Functions - Phase Extraction - excessphase die Exzessphase aus der Summe extrahieren 5. Mit TD-Functions - Reversion das Filter zeitlich umkehren 6. Abspeichern und als Vorfilter verwenden Kür: 7. Das Messignal ohne Vorfilter aufgenommen mal mit Vorfilter falten (TD-Functions Convolution) und dann das Ergebnis mit Puls- bzw. Sprungantwort anschauen und bewerten. 8. Es kann gut sein, dass das Vorfilter nicht optimal ist. Wer kennt schon die ganz genauen Daten der Weichen? Also ein wenig optimieren, bis es halbwegs bis ganzwegs passt. Dabei hilft es auch, Chassis einzeln zu messen und den Verlauf der Weiche daraus zu ermitteln. Das hilft dann bei der o.g. Simulation. 9. Das Ganze nicht unendlich weit treiben, macht nur Arbeit. Für die Raummakros muss auch was übrig bleiben. von schauki » Ich denke die akustischen Phasen sind gemeint. Bei DSP Weichen kann man ja auf Hz genau angeben welcher Filter verwendet wird. Bei mir ergibt ein 12dB LR HP einen akustischen 24dB HP, der LP des TT muss allerdings 24dB elektrisch sein, um auch akustisch auf die 24dB zu kommen. Da fällt mir ein, schön wäre, wenn in Acourate auch zur jeweiligen Trennfrequenz die Filterart/güte einstellbar wäre. Okay, ist bei Acourate nicht so wichtig auf GLZ Rücksicht zu nehmen, aber ich habe z.B. 24dB/48dB akustisch und muss - was auch geht - 2-mal Filter erstellen und richtig laden. Kurz gesagt, es würde meiner Faulheit helfen, wenns gehen würd. Frage allgemein: Warum ist das "besser" als ohne Prefilter? Habe zwar ein paar Theorien, naja... von schauki » 26.02.2010, 19:28 So ich habe mal die Sache mit den Vorfiltern gemacht. Folgende Konfig vorher: 3 Wege - TFs 521Hz mit 24dB/LR und 2850Hz mit 48dB/LR Hier das Ergebnis: Klick für größere Darstellung Grün: Original Sprung, die ersten "Sprünge" verhalten sich ziemlich nach Lehrbuch/Filtereigenschaften, ab 0,127s werkt der Raum und der nicht optimale FG mit. Blau: mit erstelltem Vorfilter, etwas Preringign vor dem Sprung, aber sonst schon ganz sauber Rot: noch mal mit komplettem Korrekturfilter, also wo alles korrigiert wird, sieht am schönsten aus, FG ist dort auch am linearsten (Target bis auf 5Hz Subsonic linear). Pegel beim messen passen nicht 100%, wie viel das ausmacht für den Sprung weiß ich nicht. Die rote Kurve war in dem Fall ohne Vorfilter, also in Acourate das Original (grün) geladen und die "üblichen" Korrekturen gemacht. Was genau würdest du gerne sehen? Habe eh noch alle Messungen gespeichert. In dem Vorfilter werden die Phasenfehler die durch die Weiche (in meinem Fall mit IIR Filter) und mechanisch/akustische Filter rausgerechnet. D.h. aus der Box kommen schlussendlich eben die 24dB Filter für TT-MT und 48dB Filter für MT-HT raus. Das ist elektrisch über 24dB Tiefpass für den TT + 12dB Hochpass für den MT (der mechanisch/akustisch schon 12dB macht) und jew. 48dB elektrisch für MT/HT bei der oberen Trennung, realisiert. Der FG verändet sich nur im Offset zum Original um ein paar Pixel (???) woher weiß ich nicht, aber ich denke das macht auch nichts aus. Die Gesamtkorrektur errechnet neben diesen Phasenfehler auch den der minphase (durch FG Änderungen) raus, 100% FG linear ist der Originalpuls nicht. Ist auch am Hörplatz gemessen. FDW Einstellung war glaube ich 15... von schauki » Ich bin "Fan" von hohen Filterordnungen, vor allem je mehr Wege desto wichtiger finde ich. Eben weil: 1) in Räumen es kaum ein echtes Diffusfeld gibt sondern eher ein Wirrwarr an diskreten Reflexionen, und die wiederum großteils vom Abstrahlverhalten des LSP geprägt werden. Und je weniger Einbrüche es durch (große) Überlappungsbereiche 2er Chassis gibt (zumindest maximal in vertikaler Richtung bei "üblicher" Anordnung) desto besser. Dass die Energieabgabe dadurch auch nur schmälere Senken hat ist klar, und hat den selben Effekt, aber eben eher aufs Diffusfeld. 2) diese wie man sieht bis aufs "pre-ringing" (was messtechnisch schon vieeeel weniger ausmacht und imho somit wurscht ist) mittlerweile durch FIR kein Problem mehr darstellt. Die verursacht Phasendrehung durch die steilen Filter wird egalisiert. (Ich verwendet die 24dB akustisch TT-MT deshalb weil ich zu faul bin an der DCX umzuschalten und ich ab und an doch noch CD über Player höre und dann keine FIR-Filter zur Verfügung habe) Sonst würde ich eh nehmen was die DCX hergibt maximal 48dB LR. Bzgl DEQX und deinem Projekt: Die DEQX hat keine FIR Filter bei der EQ Funktion? Fände ich schade und etwas unverständlich. Ich weiß nicht wie steil sich die Filter mit Subtraktionsweichen machen lassen. Analogweichen haben natürlich ein paar Vorteile. Wenn du allerdigns sowas planst inkl. Brute-FIR Kisterl, dann wäre halt die Frage ob du nicht den (kleinen) Schritt weitergehst, und die Soundkarte dann gleich mehrkanalig machst und eine komplette brute-FIR-Weiche baust. Die DEQX bleibt dann aber arbeitslos. So hättest du dann (wenn gewünscht) wirklich steilste Filter, einzeln korrigierte Chassis (was bei geregelten nicht sooo wichtig ist) und Raumkorrektur in einer Kiste und die Analog-Weiche wäre nicht nötig. Würde/werde/wollte ich ja so machen, aber liegt auf Eis. Vergleichhören bei mir: Habe jetzt nur ein bisschen die Filter hin und her, bzw. abgeschaltet. Das Abstrahlverhalten der Box bleibt in allen Fällen gleich. Der FG zwischen Vorfilter und ohne auch gleich, hier ändert sich nur die Phase. Der komplett korrigierte Filter ähnelt in der Phase dem Vorfilter und verbessert den FG. Zwischen Vorfilter und Original konnte ich auf die schnelle keinen/kaum Unterschied ausmachen. Die komplette Korrektur beseitigt eine leichte Bassanhebung und bei 500Hz einen kleinen Berg. Und natürlich auch die Phase. Konkret diese Einstellung habe ich auch zu wenig vergleichsgehört. von wgh52 » Ein paar kleine Kommentare: schauki hat geschrieben:...In wie fern erschüttert dich das? Sollte es dich nicht erbauen?... Richtigstellung: Nicht ich bin erschüttert, sondern mein festhalten am DEQX, insofern ist das erbaulich. schauki hat geschrieben:...Ich bin "Fan" von hohen Filterordnungen... Alles soweit d'accord schauki hat geschrieben:...Die DEQX hat keine FIR Filter bei der EQ Funktion?... Den PDC 2.6p gibt's seit ca. 2002 oder so. Er hat längst einen Nachfolger, der aber über 5 k€ kostet... schauki hat geschrieben:...Ich weiß nicht wie steil sich die Filter mit Subtraktionsweichen machen lassen... Nachdem meine LS ja B&M sind, ist die von Gert & Michael entwickelte 24 dB Subtraktionsweiche eine echte Alternative für mein 4-Weg-System, aber ich hänge momentan noch an der Grenzfrequenzflexibilitäts"nadel". schauki hat geschrieben:...wäre halt die Frage ob du nicht den (kleinen) Schritt weitergehst, und die Soundkarte dann gleich mehrkanalig machst und eine komplette brute-FIR-Weiche baust... Die entsprechende Soundkarte mit 8 Ausgängen habe ich seit Monaten, die BruteFiR Box selbst ist das Problem 1, die (und dies mit Bitte um Entschuldigung an Uli !!!) "höchst anspruchsvolle Bedienung" der Acourate SW ist Problem 2. Ich kann schaffe die BruteFIR Lösung LEIDER momentan einfach zeitlich nicht. So ein Projekt muss noch 2 Jahre warten. von schauki » 28.02.2010, 02:46 Okay, soweit dann wieder klar. Bei mir ist nicht Acourate das Problem, sondern Linux bzw. BruteFIR. Was aber im Endeffekt auch nur ein Zeitproblem ist. Eigentlich versuche ich ja andere zu überreden das zu machen, damit ichs selbst nur nachbasteln muss mfg P.S.: 24dB Weichen sind >500Hz imho die minimale Steilheit und eigentlich auch nur ein Zugeständnis an Gruppenlaufzeit in nicht FIR Systemen. von LS_Karl » 28.02.2010, 14:34 Was du hier mit deinem Eingangsbeitrag ansprichst, ist doch die Stelle von Uli's Vortrag in Taunusstein, an der ich leider leicht eingenickt abwesend war. (Tja, was eine "exzessiv" abklingende Erkältungsphase mit einem so anstellt!?) Uli's Antwort zeigt uns, was mit Acourate alles möglich ist! Faszinierend. Zur Erinnerung möchte ich noch ergänzen: Uli führte auch an, die Chassis einzeln zu messen und schon hier erkennbare akustische Schwächen (SchalldruckFrequenzganglinearität) aufzudecken und gfs. in den Prefilter mit einfließen zu lassen (Chassis-Linearisierung). Deine LS sind doch die Silbersand FM 303, aktive, sensorgeregelte 3-WegeSysteme, Subtraktivfilter mit Fü 300Hz, 2500Hz)? Mich interesiert hier natürlich was mit der schon gegebenen Regelung darüber hinaus mit Acourate (auch messtechnisch) noch möglich ist. Oben genanntes in die Tat umsetzen bedeutet doch quasi auch neugieriges "Reengineering". Ansonsten gilt natürlich Uli's freundlicher Hinweis unter Pkt.9. Ich bin gespannt auf deine Meßschriebe (sofern es welche geben wird, ohne/mit Acourate) und die Kommentare hierzu, habe ich doch noch den Bericht mit den Messkurven von H. Schippers Besuch bei H. Kramer (Franz) in Erinnerung. Hier an der Stelle (anderer Beitrag) die Gratulation zum Acourate-Kistchen. Gefällt mir auch. Viel Spaß damit. Anmerkung für Winfried und sein BruteFIR Gedanke: Als ich mit meiner BruteFIR PC-Kiste angefangen habe, bekam ich von Uli mal den freundlichen Hinweis, der Weg sei das Ziel. Also Geduld, auch wenns akustisch schmerzt. Anmerkung für schauki: Die steileren Filter erlauben für die Tiefmittel- und Hochtöner tiefere Einsatzfrequenzen. Dank Acourate sind dem DIY'er mit den digitalen Weichen schöne Spielräume eröffnet. Aber, ich habe mich schon mal mit hörbarem Preringing beim Filterspielen erwischt. von schauki » 28.02.2010, 18:28 Hallo! Wobei ich eben noch nicht genau weiß, was denn nun der Pre-Filter "bringt". Meine Theorie ist, dass Acourate nun sicher "weiß", dass die Phasendehungen 100% von den LSP kommen und nicht vom Raum. Aber ist nur ne Theorie... @Karl Ja, ist halt echt ärgerlich dass man da dann ggf. Preringig in Kauf nehmen muss aber ich bin eh ein Holzohr, von daher... In meinem Fall sind es gar nicht die niedrigeren Einsatzfrequenzen, ich bin vorher über Horngeometrien auf die minimalen Frequenzen festgenagelt. Allerdings sehe ich eben den Vorteil darin, dass man bei der Chassisauswahl mehr Möglichkeiten hat, so macht eine Reso ne halbe Oktave über TF bei NT Filtern 6ter Ordnung nichts aus. Dafür kann man das wirkungsgradstärkere weniger bedämpfte Chassis nehmen usw... Die tiefere Trennung allerdings hätte freilich den Vorteil, dass Abstand/lambdaVerhältnis bei konventionell angeordneten Chassis zu verbessern. Natürlich auch fürs Chassis selbst, welches dann ziemlich sicher nicht aufbricht. uli.brueggemann » 28.02.2010, 19:11 schauki hat geschrieben:Wobei ich eben noch nicht genau weiß, was denn nun der Pre-Filter "bringt". Meine Theorie ist, dass Acourate nun sicher "weiß", dass die Phasendehungen 100% von den LSP kommen und nicht vom Raum. Aber ist nur ne Theorie... Garnicht soweit daneben Oder besser nah dran. Ich hab's auf dem Workshop ein paarmal angeführt: die Exzessphasenkorrektur ist ein zartes Pflänzchen. Vor allem die Über-alles-Korrektur. Es können sich abhängig von gewählten Parametern und den raumabhängigen Reflektionen Instabilitäten einstellen. Die Korrektur einer Frequenzweiche selbst ist hingegen immer stabil. Und demzufolge sind dann die Parameter der Raumkorrektur unabhängig davon wählbar und müssen nicht die Weiche auch noch mitkorrigieren. Ich denke, das sollte genug Erläuterung sein. von schauki » 28.02.2010, 19:59 Okay, dann werde ich das auch noch mal machen und hier das Ergebnis zeigen. Vielleicht lässt sich da wirklich noch was rauskitzeln, obwohl, wenn schon die Unterschiede zwischen hui und pfui (was den Sprung angeht) zumindest nicht sofort ins Ohr springen, dann kann ich mir nicht so recht vorstellen, dass diese Feinheit das tut. Aber da es der "richtigere" Weg ist und nix kostet - wirds natürlich gemacht. von schauki » 28.02.2010, 22:12 Hallo! Hier mal die nur offline (??) gefaltete Korrektur. An sich die gleichen Parameter, eben nur die Raum-Korrektur über das gemessene Signal mit Vorfilter laufen lassen und das entstandene Korrekturfilter mit dem gemessenen Signal gefaltet. Wobei, optimal wäre natürlich dieses mit dem Vorfilter falten und dann damit "echt" messen. Aber da müsste ich wieder alles aufbauen, werde ich beim nächsten Mal, wenn ich messe, gleich mitmachen. Pegel wurde da auch fürs Filter gesenkt. Somit hat das wohl nicht soooo viel Aussagekraft: Tendeziell würde ich aber sagen "besser". mfg P.S. auch die Startzeiten sind nicht gleich und ich weiß (noch) nicht, wie ich das auf gleich bekomme, daher ge"gimp"t von schauki » 28.02.2010, 23:04 Hinhören? Ich habe das Zeugs eigentlich nur zum Messen. Nein ersthaft: Ich bin mir 100% sicher, dass ich da keinen Unterschied hören kann, also jetzt zwischen Komplettkorrektur und Korrektur mit Vorfilter. Aber es ist eben die elegantere/saubere Lösung, und von daher sollte man das auch machen. Übrigens sieht man an diesen Beispielen auch die immer wiederkehrende "Zeitrichtigkeitsdebatte": Zwischen der Originalkurve und dem mit Vorfilter ist ja in der Sprungantwort der deutlichste Unterschied, hingegen zwischen der mit zusätzlicher FG Korrektur jetzt nicht "die Welt". Trotzdem wird JEDER einen (deutlichen) Unterschied zwischen den Versionen mit unterschiedlichem FG hören (obwohl ich da auch schon von Haus aus nicht sooo schlecht eingestellt habe), hingegen zwischen der definitiv nicht zeitrichtigen und (ziemlich) zeitrichtigen Einstellung wirds schwer/unmöglich. Wobei ich auch betonen muss, dass ich mein System ja auch von Haus aus so eingestellt habe, dass diese Zeitfehler sich unter/um die Hörschwelle (nach Lehrbuch) bewegen. Mit LSP, die von Haus aus deutlich drüber liegen, kann das anders aussehen. play-mate hat geschrieben:ist es so, daß je weniger ein lautsprecher bzw. ein raum an "phasen-/amplituden problemen" leidet, je einfacher hat es ein FIR filter die probleme in den griff zu bekommen? -oder anders: je weniger das FIR filter "korrektur" errechnen muß, desto weniger pre-ringing effekte entstehen? ...übrigens, sind "buffer size" von bedeutung in FIR filtern? Die Frage ist mir so nicht ganz klar. Ich versuch es mal anhand eines Beispiels: Der am Ohr eintreffende Schall ist die Summe von mehreren Komponenten, im einfachsten Fall LS und Raum. Die Korrektur einer Summe ist nun jedoch problematischer als die Summe der Einzelkomponenten. Also zuerst den LS (Direktschall) und dann den Raum korrigieren klappt problemfreier. Wenn z.B. eine Frequenzweiche eines Korrekturfensters von Breite x braucht, aber der Raum seinerseits da mit Reflektionen dazwischenfunkt, dann kann der Gesamtschall nicht vernünftig korrigiert werden. Jedoch zuerst der LS mit dem gewünschten Fenster. Beim Raum ist dann eine andere Fensterbreite möglich. Was meinst Du mit "buffer size" bei FIR-Filtern? Kurze Frage die vielleicht nicht ganz reinpasst, aber doch irgendwie. Wenn man wie üblich einen Mehrwege-LSP betreibt und ihn unter möglichst Freifeldbedingungen messen - bzw. Korrekturfilter errechnen lassen will, biete sich dann Folgendes an oder haut das nicht hin? - Jeden Weg einzeln messen (wenn möglich die anderen abschalten) im Nahfeld - Alle Wege der linken Box in Acourate laden - Summieren (welche Funktion wäre da am besten geeignet) - Und das Ergebnis als Korrekturgrundlage nehmen Würde dann in Kombination mit dem "theoretischen" Vorfilter noch mal den Raum mehr ausschließen bzw. würde für einen Hörplatzmessung dann ja wirklich nur mehr der Raum als "Fehlerquelle" in Frage kommen. Kann das hinhauen? Macht das Sinn? von uli.brueggemann » 11.03.2010, 18:33 Ich denke eine Vorübung macht Sinn: miss mal am Hörplatz die Gesamtantwort des LS. Dann messe die einzelnen Treiber, dabei einfach die anderen ausschalten. Es ergeben sich z.B. für links 4 Pulsantworten, gesamt, TT, MT und HT. Nun lade die Gesamtantwort mit Sprunganzeige und HT mit Sprunganzeige. Den HT solange rotieren, bis die Anzeigen übereinanderpassen. Dann mit TD-Functions Subtraction den HT Puls vom Gesamtpuls abziehen. Nun das Ergebnis als Sprung. Den MT laden. Solange rotieren bis die Anzeigen passen. Den MT Puls subtrahieren. Schliesslich den TT laden und solange rotieren bis es wieder zusammenpasst. Ergebnis: TT, MT und HT Pulse die als Summe das Gesamtergebnis zeigen. Das passt im allgemeinen wunderbar. Nun kennt man hoffentlich auch die Frequenzweichen und kann diese entsprechend zeitlich zuordnen wie oben herausgefunden (das beinhaltet also auch akustische Abstände). aston456