Wenn wir über unsere Studien sprechen, ist die Methodik das A und O. Es geht darum, wie wir an die Sache herangehen, welche Werkzeuge wir benutzen und wie wir sicherstellen, dass die Daten, die wir sammeln, auch wirklich etwas taugen. In diesem Artikel werfen wir einen Blick hinter die Kulissen unserer Fallstudien. Wir erklären, wie wir die Forschung geplant haben, welche Daten wir gesammelt haben und wie wir die Qualität der Ergebnisse im Auge behalten. Das ist wichtig, damit unsere Erkenntnisse nicht nur interessant, sondern auch verlässlich sind.

Schlüsselpunkte zur Methodik

  • Unsere Fallstudien basieren auf einem qualitativen Forschungsdesign, speziell einer explorativen Gruppen-Fallstudie. Das bedeutet, wir tauchen tief in die Materie ein, um neue Erkenntnisse zu gewinnen und die Dinge aus verschiedenen Blickwinkeln zu betrachten.
  • Das Studiendesign wurde sorgfältig gewählt, um die Forschungsfragen direkt anzugehen. Wir haben genau überlegt, was wir untersuchen wollen, wo und wann das Ganze stattfindet, damit wir die relevantesten Informationen sammeln.
  • Bei der Datenerhebung haben wir großen Wert auf die Validität gelegt. Das heißt, wir haben die Instrumente vorher getestet, die Teilnehmer aufgeklärt und die Interviews in ihrer natürlichen Umgebung geführt, um ein möglichst klares Bild zu bekommen.
  • Die Datenqualität ist uns wichtig. Deshalb haben wir uns mit der Reflexivität des Forschenden auseinandergesetzt, für Nachvollziehbarkeit gesorgt und aktiv nach Gegenbeispielen gesucht, um Vorannahmen zu hinterfragen.
  • Die Analyse der Daten reicht von der genauen Transkription bis zur Interpretation. Wir nutzen klare Regeln für die Kodierung, ein systematisches Auswertungsverfahren und die Triangulation der Ergebnisse, um die Zuverlässigkeit zu erhöhen.

Methodik: Das Fundament Unserer Fallstudien

Wenn wir über unsere Fallstudien sprechen, ist es wichtig zu verstehen, auf welchem Fundament das Ganze aufgebaut ist. Wir haben uns bewusst für einen qualitativen Forschungsansatz entschieden, weil wir die Dinge wirklich verstehen wollen, nicht nur oberflächlich zählen. Das bedeutet, wir tauchen tief in die Materie ein, um die Nuancen und Zusammenhänge aufzudecken, die man mit reinen Zahlen oft übersieht.

Qualitatives Forschungsdesign

Unser Design ist ganz klar qualitativ. Das ist kein Zufall, sondern eine bewusste Entscheidung, um die Komplexität unserer Untersuchungsgegenstände zu erfassen. Wir wollen nicht nur wissen, was passiert, sondern vor allem warum und wie es passiert. Dieses Vorgehen erlaubt uns, die Perspektiven der Beteiligten einzufangen und die Dynamiken in ihrem natürlichen Umfeld zu beobachten. Es ist ein bisschen wie Detektivarbeit, nur eben mit Menschen und Organisationen.

Explorative Gruppen-Fallstudie

Genauer gesagt, haben wir uns für eine explorative Gruppen-Fallstudie entschieden. Warum das Ganze? Nun, weil wir oft mit neuen oder wenig erforschten Themen arbeiten. Eine Fallstudie ist super, um ein bestimmtes Phänomen in seinem realen Kontext zu untersuchen. Da wir aber nicht nur einen Fall isoliert betrachten wollten, sondern auch Vergleiche ziehen und Muster über mehrere Fälle hinweg erkennen wollten, wurde es eine Gruppen-Fallstudie. Das erlaubt uns, von den Besonderheiten einzelner Fälle zu abstrahieren und breitere Erkenntnisse zu gewinnen. Es ist ein bisschen so, als würde man verschiedene Puzzleteile sammeln, um am Ende ein größeres Bild zu sehen. Das Projekt Biomot zum Beispiel, das an exoskelett-Technologien forscht, könnte von einem solchen Ansatz profitieren, um die Nutzererfahrungen verschiedener Prototypen zu vergleichen.

Datengrundlage und Stichprobenwahl

Die Auswahl unserer Fälle und die Art, wie wir an die Daten kommen, sind natürlich entscheidend. Wir haben uns nicht einfach irgendwelche Fälle ausgesucht. Stattdessen haben wir eine gezielte Stichprobenwahl vorgenommen, die auf unseren Forschungsfragen basiert. Das Ziel war, eine gute Mischung zu bekommen, die uns erlaubt, die Vielfalt des untersuchten Feldes abzubilden. Wir wollten nicht nur die offensichtlichen Beispiele, sondern auch die, die vielleicht auf den ersten Blick nicht so passen, aber wichtige Einblicke liefern können. Das ist wichtig, um ein rundes Bild zu bekommen und nicht nur das zu sehen, was wir sowieso schon erwarten.

Die Auswahl der Stichprobe ist ein kritischer Schritt, der die Aussagekraft unserer Ergebnisse maßgeblich beeinflusst. Wir legen Wert darauf, dass die ausgewählten Fälle repräsentativ für die Bandbreite des untersuchten Phänomens sind, auch wenn wir keine statistische Repräsentativität im quantitativen Sinne anstreben.

Studiendesign: Einblicke in Die Methodische Vorgehensweise

Bei der Konzeption unserer Fallstudien war es uns wichtig, ein Design zu wählen, das uns erlaubt, tief in die Materie einzutauchen und die komplexen Zusammenhänge wirklich zu verstehen. Wir haben uns für einen qualitativen Forschungsansatz entschieden, weil wir nicht einfach nur Zahlen sammeln wollten. Stattdessen ging es uns darum, die Geschichten und Erfahrungen unserer Teilnehmer authentisch einzufangen. Das hat uns vor einige Herausforderungen gestellt, denn qualitative Forschung ist ja oft ein bisschen wie ein dynamisches Gebilde, das sich auch während der Datenerhebung noch anpassen kann. Aber genau das macht es ja auch so spannend!

Bezug von Forschungsfragen und Methoden

Ein zentraler Punkt bei der Planung war, dass die gewählten Methoden wirklich zu unseren Forschungsfragen passen. Wir wollten nicht, dass die Fragen nur deshalb so formuliert sind, weil wir eine bestimmte Methode nutzen wollen. Ganz im Gegenteil: Die Fragen kamen zuerst, und dann haben wir geschaut, welche Methoden uns am besten helfen, sie zu beantworten. Es ist wichtig, dass diese Verbindung klar erkennbar ist. Wir haben uns bewusst dagegen entschieden, unsere Fragen so zu verbiegen, dass sie nur in ein quantitatives Korsett passen. Stattdessen wollten wir die Realität so abbilden, wie sie ist.

Erkenntnisziel und Untersuchungsgegenstand

Unser Hauptziel war es, unbekannte Veränderungen und Faktoren in einem bestimmten Bereich zu erforschen. Deshalb haben wir uns für eine explorative Fallstudie entschieden. Dieser Ansatz erlaubt es uns, reichhaltiges Datenmaterial zu sammeln und dadurch tiefere Einblicke zu gewinnen. Wir wollten verstehen, was wirklich vor sich geht, und nicht nur an der Oberfläche kratzen. Das bedeutet, wir haben uns auf die Gewinnung von detaillierten Informationen konzentriert, um ein umfassendes Bild zu erhalten. Das ist besonders nützlich, wenn man sich mit neuen Technologien beschäftigt, wie zum Beispiel mit Exoskeletten, die die menschliche Mobilität verbessern können. Studien zeigen hier ja oft beachtliche Ergebnisse, etwa bei der Verbesserung von Gehtests oder der Reduzierung von Anstrengung in industriellen Umgebungen Biomot Projekt.

Untersuchungsort und -zeitpunkt

Bei der Auswahl des Untersuchungsortes und -zeitpunkts haben wir darauf geachtet, dass die Bedingungen so natürlich wie möglich sind. Wir wollten die Situationen nicht künstlich nachstellen, sondern die Realität so einfangen, wie sie im Alltag vorkommt. Das hat uns geholfen, authentischere Daten zu bekommen. Manchmal ist es ja so, dass die Umgebung einen großen Einfluss darauf hat, wie Menschen agieren und was sie sagen. Deshalb war es uns wichtig, nah am Geschehen zu sein und die Dinge so zu beobachten, wie sie passieren. Das hat auch den Zugang zum Feld erleichtert und zu tieferen Aussagen der Experten geführt.

Datenerhebung: Sicherstellung Der Validität

Laborgeräte und wissenschaftliche Instrumente im Fokus.

Pretest und Anpassung der Erhebungsinstrumente

Bevor wir richtig loslegen, ist es super wichtig, dass unsere Werkzeuge – also unsere Fragebögen und Leitfäden für Interviews – auch wirklich funktionieren. Deshalb haben wir einen Pretest gemacht. Das bedeutet, wir haben die Instrumente erstmal mit einer kleinen Gruppe ausprobiert, die unseren eigentlichen Teilnehmern ähnlich ist. So konnten wir feststellen, ob die Fragen klar sind, ob sie das abfragen, was wir wissen wollen, und ob die Leute sie gut verstehen. Gab es Unklarheiten oder Dinge, die missverstanden wurden? Dann haben wir die Instrumente angepasst. Dieser Schritt ist entscheidend, damit wir am Ende keine Daten haben, die wir nicht richtig interpretieren können. Es geht darum, dass das, was wir messen wollen, auch wirklich gemessen wird.

Aufklärung und Vertraulichkeit der Interviewpartner

Bei uns stehen die Menschen, die uns ihre Zeit und ihre Geschichten schenken, an erster Stelle. Deshalb ist es uns ein großes Anliegen, dass sich alle wohl und sicher fühlen. Vor jedem Gespräch klären wir ganz genau auf, worum es in unserer Studie geht, was mit den gesammelten Informationen passiert und wie wir sie nutzen werden. Wir versichern auch, dass alles, was gesagt wird, absolut vertraulich behandelt wird. Das bedeutet, die Namen der Personen und alle anderen persönlichen Details bleiben anonym. Wir wollen, dass sich die Teilnehmenden frei fühlen, offen zu sprechen, ohne sich Sorgen machen zu müssen. Das schafft Vertrauen und ist die Basis für ehrliche Antworten.

Untersuchung im natürlichen Umfeld

Wir glauben fest daran, dass man die besten Einblicke bekommt, wenn man die Dinge dort untersucht, wo sie auch wirklich passieren. Stellt euch vor, wir wollen wissen, wie ein bestimmtes Werkzeug im Alltag genutzt wird. Es macht wenig Sinn, das in einem sterilen Labor zu testen. Deshalb versuchen wir, unsere Fallstudien so nah wie möglich am echten Leben der Beteiligten durchzuführen. Das kann bedeuten, dass wir die Interviews dort führen, wo die Leute arbeiten oder leben, oder dass wir die Situationen beobachten, wie sie eben passieren. So vermeiden wir, dass die künstliche Umgebung der Forschungsergebnisse verfälscht. Wir bekommen ein viel realistischeres Bild davon, wie die Dinge wirklich ablaufen, wenn wir uns nicht zu sehr von der natürlichen Umgebung entfernen.

Datenqualität: Gütekriterien in Der Qualitativen Forschung

Wenn wir über die Qualität unserer Forschung sprechen, kommen wir an den Gütekriterien nicht vorbei. Anders als in der quantitativen Forschung, wo Objektivität, Reliabilität und Validität oft wie ein Dreigestirn dastehen, ist die Lage in der qualitativen Forschung etwas… sagen wir mal, nuancierter. Hier wird viel mehr diskutiert, wie man die Qualität sichert, und das ist auch gut so. Es geht darum, dass unsere Ergebnisse nicht nur für uns Sinn ergeben, sondern auch für andere nachvollziehbar und bewertbar sind.

Wir haben uns da an einigen etablierten Ansätzen orientiert, aber auch eigene Wege gefunden, um sicherzustellen, dass unsere Fallstudien wirklich Hand und Fuß haben. Es ist ein bisschen wie beim Kochen: Man braucht gute Zutaten, das richtige Rezept und muss auch während des Kochens aufpassen, dass nichts anbrennt.

Reflexivität des Forschenden

Das ist ein Punkt, der in der qualitativen Forschung ganz großgeschrieben wird. Weil wir Forschenden ja selbst das Werkzeug sind, mit dem wir die Daten erheben und analysieren, müssen wir uns unserer eigenen Rolle und unserer Vorannahmen sehr bewusst sein. Das bedeutet, wir hinterfragen uns selbst und unser Vorgehen ganz genau. Wo könnten wir unbewusst Dinge beeinflusst haben? Welche Erwartungen bringen wir mit, die die Ergebnisse verzerren könnten?

  • Selbstbeobachtung: Wir haben genau aufgeschrieben, wie wir vorgegangen sind und warum. Das hilft später, nachzuvollziehen, wie wir zu unseren Ergebnissen gekommen sind.
  • Offenheit für Gegenbeispiele: Wenn Daten auftauchen, die nicht so recht in unser Bild passen, ignorieren wir die nicht einfach. Im Gegenteil, wir schauen uns die genau an, denn gerade da steckt oft viel Lernpotenzial drin.
  • Austausch mit Kollegen: Wir haben unsere Überlegungen und auch schwierige Stellen in der Analyse immer wieder mit anderen Forschenden besprochen. Das bringt frische Perspektiven und hilft, blinde Flecken zu entdecken.

Die eigene Subjektivität ist kein Hindernis, sondern ein Teil des Forschungsprozesses, den man bewusst gestalten muss. Es geht darum, die eigene Brille zu erkennen und zu wissen, wie sie die Sicht auf die Dinge beeinflusst.

Intersubjektive Nachvollziehbarkeit

Das ist im Grunde die Frage: Kann jemand anderes, der unsere Studie liest, genau verstehen, was wir gemacht haben und warum? Wir haben versucht, jeden Schritt unserer Untersuchung so detailliert wie möglich zu dokumentieren. Das fängt bei der Auswahl der Fälle an, geht über die genauen Fragen in den Interviews bis hin zu den Regeln, nach denen wir die Antworten ausgewertet haben. So kann jeder nachvollziehen, wie wir von den Rohdaten zu unseren Schlussfolgerungen gekommen sind. Das ist wichtig, damit unsere Ergebnisse nicht einfach im Raum stehen, sondern von anderen geprüft und diskutiert werden können.

Umgang mit Vorannahmen und Gegenbeispielen

Wie schon bei der Reflexivität erwähnt, sind Vorannahmen ein ständiger Begleiter in der qualitativen Forschung. Wir versuchen nicht, sie komplett auszuschalten – das wäre wahrscheinlich unmöglich. Stattdessen machen wir sie sichtbar. Wir dokumentieren, was wir anfangs gedacht haben, und vergleichen das dann mit dem, was die Daten tatsächlich hergeben. Wenn die Daten unseren anfänglichen Ideen widersprechen, ist das kein Problem, sondern eine Chance. Wir haben uns bewusst bemüht, solche Gegenbeispiele zu finden und zu analysieren, anstatt sie zu übersehen. Das macht die Ergebnisse robuster und glaubwürdiger. Es ist ein bisschen wie Detektivarbeit: Man sammelt alle Hinweise, auch die, die erst mal nicht passen wollen, um am Ende ein vollständiges Bild zu bekommen.

Datenanalyse: Von Der Transkription Zur Interpretation

Nachdem wir die Daten gesammelt haben, geht es jetzt ans Eingemachte: die Analyse. Das ist der Teil, wo aus vielen einzelnen Gesprächsfetzen und Notizen ein schlüssiges Bild wird. Wir fangen damit an, die ganzen Audioaufnahmen in Text umzuwandeln, also zu transkribieren. Das ist echt zeitaufwendig, aber super wichtig, damit wir nichts überhören. Wir nutzen dafür spezielle Regeln, damit das Ganze auch nachvollziehbar bleibt. Stell dir vor, du hörst ein Interview und denkst dir ‚Was hat der Kerl da gerade gesagt?‘. Mit einer guten Transkription kannst du das nochmal nachlesen und dir sicher sein, was gemeint war. Wir haben uns für eine semantisch-inhaltliche Transkription entschieden. Das heißt, wir konzentrieren uns auf den Inhalt und nicht so sehr auf jedes kleinste Nuscheln oder Zögern. Das macht die ganze Sache lesbarer und wir kommen schneller zum Kern der Sache. Übrigens, während des Transkribierens haben wir auch darauf geachtet, sensible Infos rauszuschneiden, falls die Interviewpartner das wollten oder es einfach nicht zur Studie passte. Sicherheit geht vor, ne? Die Transkriptionen werden dann in eine Software geladen, damit wir sie besser bearbeiten können. Das ist wie ein digitales Notizbuch, nur viel besser organisiert. Wir haben auch die Fragen, die wir gestellt haben, im Text fett markiert. Das hilft uns später, den Überblick zu behalten, welche Antworten zu welchen Fragen gehören. Das Ganze hat von Juni bis Oktober 2020 gedauert, also ein ordentliches Stück Arbeit.

Transkriptionsregeln und Kodierungsphasen

Die Transkription ist nur der erste Schritt. Danach kommt das eigentliche Kodieren. Das ist so ein bisschen wie das Sortieren von Legosteinen nach Farben und Formen. Wir haben uns ein Kategoriensystem überlegt, das uns hilft, die wichtigen Infos aus den Texten rauszuziehen. Am Anfang war das Kategoriensystem noch ziemlich grob, aber mit jedem Interview, das wir kodiert haben, haben wir gemerkt, dass wir es noch verfeinern müssen. Manchmal gab es Textstellen, die passten in keine Kategorie so richtig rein. Dann haben wir uns Notizen gemacht und das mit Kollegen besprochen, um eine Lösung zu finden. Ziel ist es, dass die Codes die Inhalte wirklich gut widerspiegeln. Wir haben auch extra Kategorien angelegt, für Dinge, die vielleicht nicht direkt zur Forschungsfrage gehören, aber trotzdem interessant sind. Nennen wir sie mal ‚Trüffel am Waldrand‘. Und dann gibt es noch eine Sammlung für besonders prägnante Aussagen, die wir später gut gebrauchen können.

Regelgeleitetes Auswertungsverfahren

Nachdem wir alles kodiert haben, geht es an die eigentliche Analyse. Das ist der Schritt, wo wir die sortierten Legosteine zu einem Bild zusammenfügen. Wir schauen uns die Codes an und suchen nach Mustern und Zusammenhängen. Das machen wir nicht einfach so aus dem Bauch heraus, sondern nach bestimmten Regeln. Wir vergleichen die kodierten Daten, erstellen Modelle und visualisieren die Ergebnisse. Das hilft uns, die Antworten auf unsere Forschungsfragen zu finden. Manchmal müssen wir auch nochmal zurückgehen und das Kategoriensystem anpassen oder sogar nochmal neu kodieren. Das ist ein bisschen wie Detektivarbeit, wo man immer wieder neue Spuren findet und seine Theorie anpasst. Wir nutzen dafür auch die Funktionen der Software, um die Zusammenhänge übersichtlich darzustellen. Das ist wichtig, damit auch andere nachvollziehen können, wie wir zu unseren Ergebnissen gekommen sind. Es ist ein iterativer Prozess, der viel Geduld erfordert, aber am Ende zu wirklich tiefen Einblicken führen kann, ähnlich wie man mit modernen Exoskelett-Technologien Fortschritte in der Rehabilitation erzielt.

Triangulation der Ergebnisse

Um sicherzugehen, dass unsere Ergebnisse auch wirklich stimmen, nutzen wir die Triangulation. Das bedeutet, wir schauen uns die Daten aus verschiedenen Blickwinkeln an. Wir vergleichen zum Beispiel die Ergebnisse aus den Interviews mit den Daten aus anderen Quellen, falls wir welche haben. Oder wir lassen verschiedene Leute die Daten analysieren. Das ist wie wenn man ein Objekt aus verschiedenen Richtungen betrachtet, um ein vollständiges Bild zu bekommen. So können wir sicherstellen, dass unsere Schlussfolgerungen robust sind und nicht nur auf einer einzigen Interpretation beruhen. Es ist ein wichtiger Schritt, um die Qualität unserer Forschung zu sichern.

Messgrößen: Quantifizierung Von Heterogenität Und Effektstärken

Wenn wir uns die Ergebnisse unserer Fallstudien ansehen, ist es wichtig, nicht nur zu wissen, was wir gefunden haben, sondern auch, wie stark diese Ergebnisse sind und wie konsistent sie über verschiedene Studien hinweg sind. Hier kommen die Messgrößen ins Spiel. Sie helfen uns, die Ergebnisse zu quantifizieren und besser zu verstehen.

Modelle für Effektgrößen

Bei der Analyse von Daten, besonders wenn wir mehrere Studien vergleichen, stoßen wir oft auf verschiedene Modelle. Zwei Haupttypen sind hier relevant:

  • Modell mit festen Effekten: Dieses Modell geht davon aus, dass alle Studien, die wir betrachten, im Grunde dieselbe zugrundeliegende Effektgröße messen. Unterschiede, die wir sehen, sind dann nur zufällige Schwankungen. Das ist praktisch, wenn die Studien sehr ähnlich sind und wir eine klare, gemeinsame Aussage treffen wollen.
  • Modell mit zufälligen Effekten: Dieses Modell ist etwas flexibler. Es nimmt an, dass die wahren Effektgrößen in den einzelnen Studien tatsächlich variieren können. Diese Unterschiede können durch verschiedene Faktoren entstehen, wie zum Beispiel unterschiedliche Teilnehmergruppen, leicht abweichende Interventionen oder verschiedene Umgebungen. Dieses Modell ist oft besser geeignet, wenn wir eine größere Bandbreite an Studien haben und die Ergebnisse nicht zu stark verallgemeinern wollen.

Darüber hinaus gibt es noch die sogenannten Qualitätseffektmodelle. Diese erweitern die beiden oben genannten Modelle, indem sie die Qualität der einzelnen Studien mit in die Berechnung einbeziehen. Das ist super, weil es uns hilft zu verstehen, wie stark die Qualität der Studiendurchführung die Ergebnisse beeinflusst hat.

Beurteilung Der Studienqualität

Um sicherzustellen, dass unsere Analysen auf soliden Daten basieren, müssen wir die Qualität der einzelnen Studien, die wir einbeziehen, genau unter die Lupe nehmen. Es gibt dafür verschiedene Werkzeuge, die uns dabei helfen:

  • Newcastle-Ottawa-Skala (NOS): Diese Skala wird oft für Beobachtungsstudien verwendet, um die Qualität in Bezug auf Auswahl der Teilnehmer, Vergleichbarkeit der Gruppen und Ergebnisermittlung zu bewerten.
  • Cochrane Risk of Bias Tool 2 (RoB2): Dieses Werkzeug ist speziell für randomisierte kontrollierte Studien entwickelt worden und hilft, potenzielle Verzerrungen (Bias) in verschiedenen Bereichen der Studie zu identifizieren.
  • AMSTAR-PLUS: Dies ist ein Instrument zur Bewertung der Qualität von systematischen Reviews, was für uns besonders wichtig ist, wenn wir bereits vorhandene Meta-Analysen in unsere Fallstudien integrieren.

Diese Werkzeuge helfen uns, die Zuverlässigkeit der einzelnen Studien einzuschätzen und zu verstehen, wie sie unsere Gesamtergebnisse beeinflussen könnten.

Interpretation von Qualitätseffektmodellen

Die Interpretation der Ergebnisse von Qualitätseffektmodellen ist ein bisschen wie das Zusammensetzen eines Puzzles. Wir schauen uns nicht nur die reinen Zahlen an, sondern versuchen, die ganze Geschichte dahinter zu verstehen.

Wenn wir die Ergebnisse von Qualitätseffektmodellen interpretieren, ist es wichtig, sowohl die statistischen Kennzahlen als auch ihre praktische Bedeutung zu erfassen. Gepoolte Effektstärken und Konfidenzintervalle sagen uns, wie stark ein Effekt ist und wie sicher wir uns darüber sind. Heterogenitätsmaße zeigen uns, wie stark die Ergebnisse zwischen den Studien schwanken. Forest-Plots sind dabei super hilfreich, weil sie die Ergebnisse jeder einzelnen Studie und die zusammenfassende Schätzung visuell darstellen. Das macht es viel einfacher, die Muster und Unterschiede zu erkennen.

Letztendlich geht es darum, die Ergebnisse so zu präsentieren, dass sie nicht nur für Fachleute verständlich sind, sondern auch für die Praxis relevant gemacht werden können. Die Größe des Effekts und unsere Sicherheit darüber sind hierbei entscheidend, ebenso wie die Qualität und Konsistenz der gesammelten Beweise.

Was wir gelernt haben und was als Nächstes kommt

Also, wir haben uns jetzt ziemlich genau angeschaut, wie wir an unsere Daten gekommen sind und warum wir das so gemacht haben. Es war wichtig, dass wir uns für eine bestimmte Methode entschieden haben, nämlich die qualitative Fallstudie. Das hat uns geholfen, die Dinge wirklich von innen heraus zu verstehen, anstatt nur oberflächlich draufzuschauen. Wir haben uns auch Gedanken gemacht, wie wir sicherstellen können, dass unsere Ergebnisse stimmen – Stichwort Datenqualität. Das ist nicht immer einfach, gerade wenn man mit echten Menschen und ihren Geschichten arbeitet. Aber wir haben versucht, so gut wie möglich vorzugehen, damit das, was wir herausgefunden haben, auch Hand und Fuß hat. Für die Zukunft wollen wir das Ganze noch weiter vertiefen und schauen, was wir aus diesen Erkenntnissen noch lernen können. Es bleibt spannend!

Häufig gestellte Fragen

Was bedeutet ‚Methodik‘ in eurer Studie?

Methodik ist im Grunde der Plan, wie wir unsere Studie durchführen. Es ist wie ein Kochrezept für unsere Forschung, das genau beschreibt, welche Schritte wir machen, welche Zutaten (Daten) wir brauchen und wie wir alles zusammenfügen, um am Ende ein gutes Ergebnis (Erkenntnisse) zu bekommen.

Warum habt ihr eine ‚qualitative Fallstudie‘ gewählt?

Wir haben uns für eine qualitative Fallstudie entschieden, weil wir tiefer in ein Thema eintauchen wollten. Stell dir vor, du willst verstehen, wie ein bestimmtes Spiel funktioniert. Statt nur die Regeln zu lesen (was wie eine quantitative Studie wäre), schaust du dir an, wie verschiedene Leute das Spiel spielen und warum sie bestimmte Züge machen. So bekommen wir ein reicheres Bild und verstehen die Hintergründe besser.

Wie stellt ihr sicher, dass eure gesammelten Informationen (Daten) gut und richtig sind?

Das ist super wichtig! Bevor wir richtig loslegen, testen wir unsere Fragen und Methoden. Wir sprechen auch mit den Leuten, die wir befragen, erklären ihnen alles und versprechen, dass ihre Antworten vertraulich bleiben. Außerdem schauen wir uns die Dinge dort an, wo sie wirklich passieren, also in ihrer natürlichen Umgebung. Das hilft uns, die besten und ehrlichsten Informationen zu bekommen.

Was sind ‚Gütekriterien‘ in eurer Forschung und warum sind sie wichtig?

Gütekriterien sind wie Qualitätschecks für unsere Studie. Weil wir keine Zahlen vergleichen, sondern eher verstehen wollen, ‚warum‘ und ‚wie‘ etwas passiert, achten wir darauf, dass unsere Forschung nachvollziehbar ist. Das bedeutet, wir erklären genau, wie wir vorgegangen sind, und überlegen selbstkritisch, ob unsere eigenen Ideen die Ergebnisse beeinflusst haben könnten. So können andere nachvollziehen, wie wir zu unseren Ergebnissen gekommen sind.

Wie wandelt ihr die gesammelten Informationen in verständliche Ergebnisse um?

Nachdem wir die Gespräche aufgezeichnet haben, schreiben wir sie Wort für Wort auf. Das ist wie das Erstellen eines detaillierten Protokolls. Dann sortieren wir diese Informationen in verschiedene Themen oder Kategorien. Manchmal vergleichen wir auch die Ergebnisse aus verschiedenen Quellen oder mit anderen Informationen, die wir gesammelt haben. Das hilft uns, ein rundes Bild zu bekommen und sicherzustellen, dass unsere Schlussfolgerungen stimmen.

Was sind ‚Messgrößen‘ und wie helfen sie euch?

Messgrößen sind eigentlich Werkzeuge, die uns helfen, Unterschiede oder die Stärke von Effekten zu verstehen, auch wenn wir keine reinen Zahlen vergleichen. Sie helfen uns zu beurteilen, wie gut unsere Studie war und wie wir die Ergebnisse am besten interpretieren können. Stell dir vor, du vergleichst nicht nur, wie viele Tore geschossen wurden, sondern auch, wie gut die Spieler gespielt haben. Das gibt uns ein tieferes Verständnis.