Qualitative und quantitative Analyse. Quantitative und qualitative Analyse Quantitative oder qualitative Analyse

Hatten wir bisher chemische Prozesse betrachtet, bei denen Feuer das wichtigste „Arbeitswerkzeug“ war, so wenden wir uns nun Reaktionen zu, die, wie Hermann Kopp feststellte, für die „Nassanalyse“ von großer Bedeutung sind. Diese Reaktionen zeichnen sich dadurch aus, dass sie hauptsächlich durch spontane Wechselwirkung von Stoffen in Lösungen ablaufen. Gleichzeitig sind die interagierenden Substanzen sowohl „Arbeitsgegenstand“ als auch „Arbeitsmittel“. Die Aufgaben der Studie bestehen in diesem Fall darin, die Reaktivität verschiedener Substanzen zu analysieren und die Bedingungen für ihre Wechselwirkung zu untersuchen. Die Ergebnisse experimenteller Arbeiten wurden zu Voraussetzungen für breite Verallgemeinerungen und die Erstellung von Theorien über die Zusammensetzung von Substanzen und ihre Umwandlungen.
Es darf nicht vergessen werden, dass die Bedürfnisse des chemischen Handwerks und Handels eine große Rolle bei der Erforschung von Reaktionen spielten, die auf dem "nassen Weg" durchgeführt wurden. Schon in der Antike nutzten die Menschen den Geruchs-, Gesichts- und Tastsinn, um die Qualität von Farben, Hefen und Medikamenten zu beurteilen. Es tauchten jedoch immer mehr für die chemische Praxis wichtige Verbindungen auf (z. B. Purpur, viele Drogen, Metalle), deren Qualität nicht durch Berührung, Geschmack und Farbe bestimmt werden konnte. Daher waren genauere Methoden zur Analyse weit verbreiteter Substanzen erforderlich.
Bereits zu Beginn unserer Zeitrechnung waren mehr Methoden zur Stoffanalyse bekannt als in der Antike. Sowohl Dioskurides als auch Plinius beschrieben zum Beispiel Wege, auf denen Grünspan gefunden werden kann, der bei der Herstellung von gefälschtem Schmuck verwendet wird.
Seit der Antike haben die Menschen gelernt, Flüssigkeiten („Wasser“) nach Farbe, Geruch und Geschmack zu unterscheiden. Allerdings hat man schon in der Antike versucht, objektivere Kriterien zur Bewertung der Eigenschaften von Lösungen zu finden. Hippokrates wies darauf hin, dass das reinste (und trinkbarste) Wasser dasjenige ist, das sich am schnellsten abkühlt und erwärmt. Der Arzt Archigen (1. Jahrhundert n. Chr.) unterschied Wässer, die Alkalien, Eisen, Salze, Schwefel enthielten. Vitruv schlug vor, Wasser zu verdampfen und es dann zu kondensieren und es so von verschiedenen Verunreinigungen zu "reinigen".
1572 veröffentlichte Leonard Tourneisser (1530-1596) sein Werk On Cold, Warm, Mineral and Metallic Waters. Diese Arbeit beschrieb Methoden zur Untersuchung der Zusammensetzung verschiedener Gewässer, zum Vergleich des Gewichts [Masse] von Regenwasser und Wasser aus verschiedenen Quellen, zur Durchführung der Verdunstung von Wasser und zur Kristallisation von Niederschlag, zur Untersuchung des Niederschlags beim Erhitzen usw. Andreas Libavius ​​​(1540-1616) untersuchte 1597 die von verschiedenen freigesetzten Gase Mineralwasser. Außerdem schlug er neue Methoden vor, die es ermöglichten, den Gehalt an Alaun, Salpeter oder Vitriol in Wasser nachzuweisen. Libavy verwendete Tanninsaft als Reagenz zum Nachweis von Eisen und eine Kupferlösung zur Bestimmung von Ammoniak.
1685 veröffentlichte Robert Boyle das Buch Review of the Natural History of Mineral Waters. Er berichtete über die Ergebnisse der Untersuchung der Eigenschaften und Zusammensetzung des Wassers verschiedener Mineralquellen und beschrieb Methoden zur Analyse von Wasser: Bestimmung von Temperatur und Dichte, Untersuchung von Farbe, Geruch, Wirkung auf die Haut, Beobachtung der Beweglichkeit von Verunreinigungspartikeln im Wasser unter einem Mikroskop, und die Wirkung von Luft auf Wasser. Metallverunreinigungen in verschiedene Arten Wasser sollte mit dem Saft von Tanninnüssen bestimmt werden. Der Saft wurde schwarz, wenn das Wasser Eisen enthielt. Kupferverunreinigungen führten zu einer Rötung der Lösung oder zur Ausfällung eines Niederschlags daraus. Boyle schlug vor, alkalische Wässer zu untersuchen, indem man ihnen Veilchensaft hinzufügte, der gleichzeitig grün wurde. Friedrich Hoffmann (1660-1742) beschrieb in einem 1703 erschienenen Buch Methoden zur Untersuchung der Zusammensetzung von Wässern, beispielsweise den Nachweis von Eisen durch Zugabe von Gerbsäure oder einem Extrakt aus Eichenrinde oder einer Mischung aus Kalk und fein zerkleinerten Schalen (in im letzteren Fall kommt es zu Ausfällungen). Kochsalz im Wasser wurde nach Hoffmann mit Silbernitrat, Schwefel mit Silber usw. bestimmt. Die Entdeckung der wichtigsten anorganischen Säuren zu Beginn des 13. Jahrhunderts. zu einer deutlichen Verbesserung der Wet-Path-Analyse beigetragen. Diese Säuren sind zu einem weit verbreiteten Mittel zur chemischen Untersuchung der Zusammensetzung verschiedener Lösungen geworden. Wissenschaftler des 13. Jahrhunderts - Geber, Albert der Große, Raymond Lull, Vitalis de Fourno (1247-1327) - Schwefelsäure (erhalten durch Erhitzen von Alaun) und Salpetersäure (entstanden durch Erhitzen einer Mischung aus Alaun, Kupfersulfat und Salpeter) waren bereits bekannt. Mit Hilfe dieser Säuren war es erstmals möglich, Gold „nass“ von Silber zu trennen sowie Quecksilber und Eisen zu oxidieren. Wissenschaftler des 13. Jahrhunderts sie wussten auch um die Existenz von „Königswasser“, das Gold und Schwefel auflöst, der aus Salpetersäure und Ammoniak gewonnen wurde. Beobachtungen chemischer Prozesse, die mit Hilfe anorganischer Säuren durchgeführt wurden, halfen den Wissenschaftlern, grundlegende Ideen über die Besonderheiten des Ablaufs vieler Reaktionen zu entwickeln. Diese Ideen bildeten die Grundlage der Wet-Path-Analysemethoden. Die Kenntnis der Besonderheiten des Ablaufs solcher Reaktionen war wichtig für die industrielle Chemie und für die Erweiterung der Vorstellungen über Naturphänomene.
Die Entwicklung des chemischen Wissens wurde direkt von Versuchen beeinflusst, Metalle nach ihren Eigenschaften zu klassifizieren. Paracelsus (1493-1541) ordnete Metalle nach der Geschwindigkeit, mit der Quecksilber mit ihnen ein Amalgam bildete. An erster Stelle in dieser Reihe stand Gold, gefolgt von Silber, Blei, Zinn, Kupfer, Eisen. Diese Ergebnisse waren von großer praktischer Bedeutung. 1617 verglich Angelo Sala Metalle anhand ihrer Fähigkeit, aus Lösungen ihrer Salze auszufallen; Die Präzipitation wird seit Paracelsus als wichtige Methode der „experimentellen Kunst“ eingesetzt. I. Glauber verglich 1649 Metalle nach ihrer Löslichkeit in Säuren. Anschließend wurde die Möglichkeit entdeckt, Silber aus seinen Lösungen zu trennen, indem man einen Kupferdraht eintaucht oder Lösungen von Kupfer- und Eisensalzen zu einer Silberlösung hinzufügt.
Georg Ernst Stahl untersuchte jahrelang systematisch die "Affinität" von Metallen auf der Grundlage einer Analyse ihrer Löslichkeit in Säuren und ihrer verschiedenen Verdrängungen aus Lösungen. Stahl ordnete die Metalle nach dem Wert ihrer "Affinität", ausgedrückt in der Auflösungsgeschwindigkeit in Säuren, in die folgende Reihe: Zink, Eisen, Kupfer, Blei (oder Zinn), Quecksilber, Silber, Gold. Geoffroy, Bergman und Guiton de Morveaux versuchten ebenfalls, Metalle nach der Größe ihrer "Affinität" zu systematisieren und begannen auf dieser Grundlage, Tabellen der "Affinität" zu erstellen.
Um neue experimentelle Methoden zu entwickeln und die Vorstellungen über Reaktionsabläufe zu verbessern, war es auch notwendig, die Zusammensetzung und Eigenschaften von Salzen zu untersuchen, die beim "Auflösen" von Metallen in Säuren entstehen. Bereits Paracelsus verwendete in großem Umfang Salze von Kupfer-, Blei-, Silber-, Quecksilber-, Antimon- und Arsenverbindungen als Therapeutika. Mit sehr geringen Dosen dieser Substanzen (von denen viele hochgiftig sind) behandelte Paracelsus erfolgreich die Kranken. Die Notwendigkeit, Medikamente zu dosieren und ihre Reinheit zu überprüfen, zwang die Wissenschaftler, nach immer fortschrittlicheren Methoden zur Untersuchung von Substanzlösungen zu suchen. Gleichzeitig stellte dies hohe Anforderungen an die Arbeit von Ärzten und Apothekern, die laut Paracelsus in der Lage sein sollten, schonend gereinigt und wirksam zuzubereiten Medikamente. Paracelsus glaubte, dass der Alchemist alles reproduzieren konnte, was die Natur geschaffen hatte. Er sagte, wenn die Natur nicht den Tag geschaffen hätte, der die Nacht ersetzt, dann müsste der Tag mit Hilfe der „alchemistischen Kunst“ einen Menschen erschaffen.
Paracelsus, Andreas Libavius, Angelo Sala, Otto Tahenii, Johann Rudolf Glauber, Robert Boyle beschrieben eine Reihe von Zeichen, anhand derer sie versuchten, verschiedene Salze zu klassifizieren - Farbe, Geschmack, Geruch, spezifisches Gewicht, Kristallform und Löslichkeit. Im 18. Jahrhundert. die experimentelle Untersuchung von Salzen ist so weit fortgeschritten, dass Tachenius bereits Salze als Verbindungen von Säuren und Alkalien definiert hat. Takheny gab eine Klassifizierung der verschiedenen experimentellen Forschungsmethoden, die es gab. Er sah Hinweise auf das Vorhandensein bestimmter Substanzen nur in den Verbindungen, die während ihrer Wechselwirkung gebildet wurden.
Analyse "nasser Weg" im 17. Jahrhundert. ein so hohes Niveau erreicht, dass die Forscher gezielt Reaktionen der Salzbildung und Reaktionen des gegenseitigen Austauschs von Salzen mit Niederschlag durchführten. Sala, Glauber, Kunkel war klar, dass durch die Reaktion verschiedener Verbindungen neue Stoffe entstehen können, die andere Eigenschaften haben als die ursprünglichen. Außerdem lernten die Chemiker damals, den umgekehrten Prozess durchzuführen – aus den Reaktionsprodukten wieder die Ausgangsstoffe zu gewinnen.
Qualitative und quantitative Analyse. Die Anzahl der Analysemethoden im 18. Jahrhundert. war so bedeutend, dass eine breite Verallgemeinerung des gesammelten Materials erforderlich war. Viele Chemiker haben versucht, solche Verallgemeinerungen zu erstellen. Thorburn Bergman entwickelte ein besonders erfolgreiches Sichtsystem, das Substanzen je nach Art ihrer Analyse in Gruppen einordnete. Bergman unterschied zwei Arten von "nasser" Analyse: 1) Verdampfung und fraktionierte Kristallisation; 2) Durchführung verschiedener spezifischer Reaktionen der analysierten Substanzen (Einwirkung auf Substanzen mit Lackmus, Veilchensaft, Tanninextrakt, Schwefelsäure, Oxalsäure, Kaliumcarbonat, Kalkwasser, Silbernitrat, Bleiacetat, Ethylalkohol). Bergman beschrieb detailliert die Methoden zur Gewinnung all dieser Substanzen, ihre Reaktionen sowie die Art und Weise, wie die Analyse durchgeführt wurde und wie die Ergebnisse erklärt werden konnten. In einem Buch, das die Analyse von "nassen" Mineralien beschreibt (1780), versuchte Bergman, all diese Methoden zu systematisieren. Aus der Einleitung zu diesem Buch ist ersichtlich, welch bedeutenden Stellenwert die Analyse von Flüssigkeiten in der damaligen „Experimentalkunst“ einnahm. „In unserer Zeit“, schrieb Bergman, „kann die spagyrische Kunst mit Hilfe verschiedener Lösungen die Bestandteile von Mineralien bestimmen. Allerdings ist zu bedenken, dass Mineralstoffanalysen eher selten „nass“ durchgeführt werden. Um die Zusammensetzung von Mineralen zu bestimmen, ist es viel üblicher, eine gemischte Analyse durchzuführen - teils „trocken“, teils „nass“. Das Metall wird flüssig extrahiert und dann durch Erhitzen aus der Lösung freigesetzt. Mein Ziel ist es jedoch, "Nassweg"-Analysemethoden zu entwickeln, die dann nicht erfordern, dass das Metall zum Schmelzen erhitzt und sogar geglüht wird. Ich möchte die Bedeutung der trockenen Forschungsmethode keinesfalls unterschätzen, aber in der experimentellen Praxis sollte man die am wenigsten aufwändigen und zuverlässigsten Methoden anwenden.
Die wichtigste Methode der „experimentellen Kunst“ ist qualitative Analyse- Ende des 19. Jahrhunderts. einen hohen Grad an Perfektion erreicht. Zu diesem Zeitpunkt war die quantitative Analyse (einschließlich der Gewichtsanalyse) zu einer weit verbreiteten und ziemlich gut entwickelten Forschungsmethode geworden. Dies wurde durch die Arbeiten vieler Chemiker in Frankreich, Deutschland, England, Schweden und Russland erleichtert. Die quantitative Analyse als vollwertige Forschungsmethode wurde von einem der Begründer der modernen Chemie, A. Lavoisier, in die Wissenschaft eingeführt.
Schon in der Antike wurden Waagen zur Herstellung von Arzneimitteln, in der Metallurgie und anderen chemischen Handwerken verwendet. Selbstverständlich waren Skalen auch in der experimentellen Praxis weit verbreitet. Viele Chemiker achteten auf die Untersuchung der quantitativen Zusammensetzung der Reaktanten. Lemery, Kunkel, Wilson (in dem Buch „Course of Practical Chemistry“ von 1746) und später Marggraf, Black, Bergman und andere Wissenschaftler betonten die Bedeutung der Quantifizierung der Zusammensetzung von an Reaktionen beteiligten Substanzen. Im 17. Jahrhundert solche Feststellungen wurden getroffen, aber eher gelegentlich als systematisch. Erst im Laufe der Zeit wurden Methoden der quantitativen Analyse weit verbreitet. Darüber hinaus machte sich dies besonders bemerkbar bei Experimenten zur Gasanalyse, bei denen die Bestandteile der Luft, die Dichte von Gasen, die Menge Kohlendioxid freigesetzt aus Karbonaten usw.
Im letzten Drittel des XVIII Jahrhunderts. Fortschritte waren vor allem bei den Methoden der quantitativen Analyse zu verzeichnen, vor allem dank der Arbeit von Antoine Laurent Lavoisier (1743-1794). Mit dem Wägen als Kontroll- und Forschungsmethode bestätigte Lavoisier den Erhaltungssatz des Gewichts (der Masse): Er bewies anhand von Beispielen, dass das Gesamtgewicht (die Masse) der an einem chemischen Prozess beteiligten Substanzen konstant ist, unabhängig davon, in welche Richtung dieser Prozess verläuft . Die Arbeit anderer Chemiker, die darauf abzielen, die Methoden der quantitativen Analyse in Lösungen zu verbessern, hat dazu geführt frühes XIX in. zu einer deutlichen Steigerung des chemischen Wissensstandes.
Carl Friedrich Wenzel (1740-1793) beschrieb in seinem Buch „Die Affinitätslehre“ (1777) ziemlich genau die Zusammensetzung von mehr als 200 Salzen. Seine Arbeit stieß jedoch bei Chemikern nicht auf Interesse. Dasselbe geschah mit der Arbeit von Jeremiah Benjamin Richter (1762-1807), der das Gesetz der Neutralisation entdeckte und die Lehre von der Stöchiometrie begründete. Richters Buch erregte die Aufmerksamkeit der Chemiker erst, als Ernst Gottfried Fischer 1801 die Ergebnisse von Richters Experimenten neu berechnete und auf den Wert des Gesamtäquivalents brachte - das Äquivalentgewicht von "Schwefelsäure", das gleich 100 genommen wurde. Aber Richters Arbeiten waren besonders weit verbreitet bekannt nach Claude Louis Berthollet (1748-1822) nahm eine so zusammengestellte Tabelle der Äquivalentgewichte in einen Anhang seines Buches Essays on Chemical Statics (1803) auf und verwendete sie während der Kontroverse um das Gesetz der Konstanz der Zusammensetzung von Verbindungen. Das Gesetz der Konstanz der Zusammensetzung wurde im Verlauf dieser Kontroverse (1801–1808) von Jean Louis Proust (1755–1826) bestätigt, dann von John Dalton im Lichte seiner atomistischen Ideen und des von ihm entdeckten Gesetzes der einfachen Vielfachverhältnisse erklärt ihn 1803. Die quantitative Analyse „nass“ erlangte als „Werkzeug“ im chemischen Experiment eine so große Bedeutung, dass die mit dieser Methode gewonnenen Ergebnisse die Entdeckung der wichtigsten chemischen Gesetze vorbereiteten.
Obwohl sich die „experimentelle Kunst“ schon lange als fruchtbar für die Entwicklung des Handwerks und die Verbesserung naturwissenschaftlicher Konzepte erwiesen hatte, fehlten in der Regel auch Ende des 18. Jahrhunderts gut ausgestattete Laboratorien. An Universitäten in Deutschland lag der Schwerpunkt auf dem Studium der Technik und Geisteswissenschaften. Die ersten Laboratorien, in denen Studenten die „Kunst der chemischen Analyse“ beherrschen konnten, wurden von Wigleb in Langensalza und von Trommsdorf in Erfurt eingerichtet. Priestley und Cavendish in England arbeiteten in ihren eigenen privaten Laboratorien, Scheele in Schweden führte Experimente in den Räumlichkeiten einer Apotheke durch, wo er als Assistent des Apothekers arbeitete.
Ab dem 16. Jahrhundert entstanden verschiedene Akademien und wissenschaftliche Gesellschaften in europäischen Ländern. Sie unterstützten die chemische Forschung, indem sie Wissenschaftlern Mittel, Räumlichkeiten und Ausrüstung zur Verfügung stellten. Akademien und wissenschaftliche Gesellschaften wiederum erhielten staatliche Unterstützung. 1560 wurde in Neapel die Akademie der Geheimnisse der Natur gegründet, 1603 in Rom die Akademie der Luchsaugen (dei Linci), 1657 in Florenz die Akademie der Experimente (del Cimento). 1663 wurde die Royal Society in London gegründet, 1666 die Academy of Sciences in Paris, 1700 die Society of Science in Berlin, 1713 die Royal Spanish Academy in Madrid, 1724 die Academy of Sciences in Petersburg. Aber all diese wissenschaftlichen Organisationen konnten die schnell wachsenden Anforderungen an Theorie und Praxis des sich entwickelnden chemischen Experiments nicht vollständig erfüllen.
Erst ab dem zweiten Drittel des 19. Jahrhunderts. Die Regierungen verschiedener Länder begannen entsprechend den Anforderungen der industriellen Revolution und den Bedürfnissen der Landwirtschaft, beträchtliche Summen für die Ausstattung chemischer Laboratorien bereitzustellen. Dies geschah jedoch erst, nachdem die Menschen klar verstanden hatten, dass nur die Entwicklung von Theorie und Praxis des Experiments zum Fortschritt der naturwissenschaftlichen Erkenntnisse und der chemischen Produktion führt.

ich. Bereits im Laufe der Studie kann man über ihre Ergebnisse spekulieren, aber normalerweise werden diese Schlussfolgerungen als vorläufig betrachtet, und zuverlässigere und gründlichere Daten können nur als Ergebnis einer gründlichen Analyse erhalten werden.

Bei der Datenanalyse in der Sozialen Arbeit geht es darum, alle gesammelten Informationen zu integrieren und in eine Form zu bringen, die für die Erklärung geeignet ist.

Methoden zur Analyse sozialer Informationen können nach der Form, in der diese Informationen präsentiert werden, in zwei große Klassen eingeteilt werden:

Qualitätnatürliche Methoden konzentrierte sich auf die Analyse von Informationen, die hauptsächlich in präsentiert wurden verbal bilden.

quantitativMethoden sind mathematischer Natur und stellen Verarbeitungstechniken dar Digital Information.

Die qualitative Analyse ist eine Voraussetzung für die Anwendung quantitativer Methoden, sie zielt darauf ab, die interne Struktur von Daten aufzudecken, dh die Kategorien zu klären, die zur Beschreibung des untersuchten Bereichs der Realität verwendet werden. In dieser Phase erfolgt die endgültige Definition der für eine vollständige Beschreibung notwendigen Parameter (Variablen). Wenn es klare beschreibende Kategorien gibt, ist es einfach, zum einfachsten Messverfahren überzugehen – dem Zählen. Wenn Sie beispielsweise eine Gruppe von Personen auswählen, die Hilfe benötigen, können Sie die Anzahl dieser Personen in einem bestimmten Mikrobezirk zählen.

Bei der qualitativen Analyse ist es notwendig KomprimierungsinfoMacia, das heißt, um Daten in einer kompakteren Form zu erhalten.

Die Haupttechnik zum Komprimieren von Informationen ist Kodierung- der Prozess der Analyse qualitativer Informationen, der beinhaltet die Auswahl semantischer Segmente Text oder reales Verhalten, ihre Kategorisierung (Benennung) undReorganisation.

Dazu im Text selbst suchen und markieren Schlüsseldie Wörter, Das heißt, diese Wörter und Ausdrücke, die die semantische Hauptlast tragen, geben direkt den Inhalt des gesamten Textes oder seines separaten Fragments an. Es werden verschiedene Arten der Hervorhebung verwendet: Unterstreichung mit einer oder zwei Zeilen, Farbcodierung, Anmerkungen am Rand, die sowohl in Form von zusätzlichen Symbolen als auch in Form von Kommentaren erfolgen können. Sie können zum Beispiel jene Fragmente hervorheben, in denen der Klient über sich selbst spricht. Andererseits kann man alles herausgreifen, was mit seiner Gesundheit zusammenhängt, man kann die Probleme trennen, die der Klient alleine lösen kann, und die Probleme, für die er Hilfe von außen braucht.

Inhaltlich ähnliche Fragmente werden auf ähnliche Weise gekennzeichnet. Dies macht es einfach, sie zu identifizieren und gegebenenfalls zusammen zu sammeln. Dann werden die ausgewählten Fragmente unter verschiedenen Überschriften gesucht. Wenn Sie den Text analysieren, können Sie seine einzelnen Fragmente miteinander vergleichen und Ähnlichkeiten und Unterschiede aufdecken.

Das so bearbeitete Material wird gut sichtbar. Die Hauptmomente treten in den Vordergrund, als würden sie die Masse der Details überragen. Es wird möglich, die Beziehungen zwischen ihnen zu analysieren, ihre allgemeine Struktur aufzudecken und auf dieser Grundlage einige erklärende Hypothesen aufzustellen.

Wenn mehrere Objekte gleichzeitig untersucht werden (mindestens zwei) und wenn der Vergleich mit dem Ziel, Ähnlichkeiten und Unterschiede zu finden, zur Hauptanalysemethode wird, vergleichende Methoded. Die Anzahl der hier untersuchten Objekte ist gering (meistens zwei oder drei), und jedes von ihnen wird in ausreichender Tiefe und umfassend untersucht.

Es ist notwendig, eine Form der Datenpräsentation zu finden, die für die Analyse am bequemsten ist. Der Hauptansatz ist hier Schematisierung. Das Schema vereinfacht immer reale Zusammenhänge, vergröbert das wahre Bild. In diesem Sinne ist die Schematisierung von Relationen zugleich die Verdichtung von Information. Es geht aber auch darum, eine visuelle und gut sichtbare Form der Informationspräsentation zu finden. Dies ist der Zweck der Zusammenstellung von Daten in Tische oder Diagramme.

Zur besseren Vergleichbarkeit ist das Material auf reduziert Tische. Die allgemeine Struktur der Tabelle ist wie folgt: Jede Zelle ist der Schnittpunkt einer Zeile und einer Spalte. Die Tabelle ist praktisch, da sie sowohl quantitative als auch qualitative Daten enthalten kann. Der Sinn einer Tabelle besteht darin, sie betrachten zu können. Daher sollte die Tabelle in der Regel auf ein Blatt passen. Die für die Analyse verwendete Pivot-Tabelle wird oft auf ein großes Blatt Papier gezeichnet. Aber ein großer Tisch kann immer in mehrere Teile geteilt werden, dh es können mehrere Tische daraus gemacht werden. Meistens entspricht die Zeile einem Fall, und die Spalten stellen seine verschiedenen Aspekte (Merkmale) dar.

Eine weitere Technik zur prägnanten und visuellen Darstellung von Informationen ist Diagramme. Es gibt verschiedene Arten von Diagrammen, aber fast alle sind Strukturdiagramme, auf denen Elemente durch bedingte Figuren (Rechtecke oder Ovale) dargestellt werden und Verbindungen zwischen ihnen durch Linien oder Pfeile dargestellt werden. Die Verwendung eines Diagramms ist beispielsweise praktisch, um die Struktur einer beliebigen Organisation darzustellen. Seine Elemente sind Personen, genauer gesagt Positionen. Wenn die Organisation groß ist, werden größere Strukturelemente - Untergliederungen - als Elemente ausgewählt. Anhand des Diagramms lässt sich die Hierarchie der Beziehungen (Unterordnungssystem) leicht darstellen: Senior-Positionen befinden sich oben im Diagramm, Junior-Positionen unten. Die Verbindungslinien zwischen den Elementen zeigen genau an, wer wem direkt unterstellt ist.

Die Darstellung in Form von Diagrammen kann auch verwendet werden, um die logische Struktur von Ereignissen oder Texten zu erkennen. Dabei wird zunächst eine semantische Analyse durchgeführt und Schlüsselereignisse bzw. Komponenten skizziert und anschließend grafisch dargestellt, damit der Zusammenhang möglichst deutlich wird. Deutlich wird, dass die Schematisierung durch das Weglassen vieler Details zu einer Vergröberung des Bildes führt. Es gibt jedoch eine Komprimierung von Informationen, ihre Umwandlung in eine Form, die für die Wahrnehmung und das Auswendiglernen geeignet ist.

Daher sind die Hauptmethoden der qualitativen Analyse die Kodierung und die visuelle Darstellung von Informationen.

II. Die quantitative Analyse umfasst Methoden der statistischen Beschreibung der Stichprobe und Methoden der statistischen Inferenz (Prüfung statistischer Hypothesen).

Quantitative (statistische) Analysemethoden sind in der wissenschaftlichen Forschung im Allgemeinen und in der Wissenschaft weit verbreitet Sozialwissenschaften insbesondere. Soziologen greifen auf statistische Methoden zurück, um die Ergebnisse von Massenumfragen zu verarbeiten. Psychologen verwenden den Apparat der mathematischen Statistik, um zuverlässige Diagnosewerkzeuge zu erstellen - Tests.

Alle Methoden der quantitativen Analyse werden üblicherweise in zwei große Gruppen eingeteilt. statistische Methodenwen Beschreibungen darauf abzielt, ein quantitatives Merkmal der in einer bestimmten Studie gewonnenen Daten zu erhalten. statistische MethodenAusgang ermöglichen es, die in einer bestimmten Studie gewonnenen Ergebnisse korrekt auf das gesamte Phänomen als solches zu erweitern, um Schlussfolgerungen allgemeiner Art zu ziehen. Statistische Methoden ermöglichen es, stabile Trends zu identifizieren und darauf aufbauend Theorien aufzubauen, die diese erklären sollen.

Die Wissenschaft beschäftigt sich immer mit der Vielfalt der Wirklichkeit, aber sie sieht ihre Aufgabe darin, die Ordnung der Dinge, eine gewisse Stabilität innerhalb der beobachteten Vielfalt zu entdecken. Die Statistik bietet bequeme Methoden für eine solche Analyse.

Der Einsatz von Statistiken erfordert zwei Grundvoraussetzungen:

a) es ist notwendig, Daten über eine Gruppe (Stichprobe) von Personen zu haben;

b) diese Daten müssen in formalisierter (kodifizierter) Form vorgelegt werden.

Es ist notwendig, den möglichen Stichprobenfehler zu berücksichtigen, da nur einzelne Befragte für die Studie herangezogen werden, es keine Garantie dafür gibt, dass es sich um typische Vertreter handelt Soziale Gruppe im Allgemeinen. Der Stichprobenfehler hängt von zwei Dingen ab: von der Stichprobengröße und vom Variationsgrad des Merkmals, das den Forscher interessiert. Je größer die Stichprobe ist, desto unwahrscheinlicher ist es, Personen mit Extremwerten der untersuchten Variablen einzubeziehen. Andererseits gilt: Je geringer der Variationsgrad des Merkmals, desto näher liegt jeder Wert im Allgemeinen am wahren Mittelwert. Wenn man die Stichprobengröße kennt und ein Maß für die Streuung der Beobachtungen erhalten hat, ist es nicht schwierig, einen Indikator namens abzuleiten Standardfehler des Mittelwerts. Sie gibt das Intervall an, in dem der wahre Mittelwert der Grundgesamtheit liegen muss.

Statistische Inferenz ist der Prozess des Testens von Hypothesen. Außerdem wird zunächst immer davon ausgegangen, dass die beobachteten Unterschiede zufälliger Natur sind, die Stichprobe also derselben Grundgesamtheit angehört. In der Statistik heißt diese Annahme null GiHypothese.

Die Analyse empirischer Daten ist eine der wichtigsten Etappen der soziologischen Forschung, ihr Erfolg wird maßgeblich durch das Niveau der beruflichen Ausbildung des Forschers bestimmt: seine logische und methodologische Denkkultur, Objekt- und Subjektkenntnis, soziologische Erfahrung. Die Vollständigkeit des „Lesens“ der in Tabellen und Diagrammen enthaltenen Informationen, ihre logische Verarbeitung und sinnvolle Interpretation hängen also wesentlich von der Tiefe der Sach- und Sachkenntnis des Soziologen ab. Von großer Bedeutung ist auch seine Fähigkeit, Daten objektiv zu analysieren. Die Objektivität und fachliche Integrität eines Soziologen, der eine qualitative Analyse von Informationen durchführt, besteht insbesondere in Folgendem:

Nachdem er einen Zusammenhang oder ein Muster aufgedeckt hat, muss er diese mit zuvor festgestellten Tatsachen vergleichen und sich auch auf die begleitenden Daten beziehen, die das von ihm gewählte Interpretationsschema stützen (oder widerlegen);

Beschreibung der identifizierten Verbindungen und Trends, es sollte angegeben werden, unter welchen Bedingungen und Situationen sie stattfinden;

Durch eine qualitative Analyse der Informationen sollte der Forscher versuchen, das soziale Problem hinter den erhaltenen Daten zu formulieren;

auf keinen Fall und unter keinen Umständen sollte er empirische Daten dem gewünschten Ergebnis "anpassen".

Nur die Einhaltung dieser Regeln ermöglicht eine qualitative Analyse empirischer Informationen, die hinreichend zuverlässig, aussagekräftig und genau ist.

Der Forscher geht zu diesem Arbeitsschritt über, nachdem er das empirische Material mathematisch verarbeitet und eine lineare Verteilung (normalerweise in Prozent) für alle Variablen (Merkmale) erhalten hat. Bevor Sie direkt mit der Datenanalyse fortfahren, ist eine allgemeine Qualitätskontrolle der erhaltenen Informationen erforderlich: um Fehler und Auslassungen bei der Datenerhebung zu identifizieren, alle Beobachtungseinheiten abzulehnen, die nicht dem Stichprobenmodell entsprechen usw.

Je nach Programmziel kann die Datenanalyse mehr oder weniger tief gehen, nach dem „Vollschema“ durchgeführt oder an einem bestimmten Punkt unterbrochen werden. BEI vollständig sie umfasst drei aufeinanderfolgende Phasen: eine Beschreibung der gewonnenen Daten, ihre Erklärung und eine Prognose möglicher Veränderungen in dem Fragment der sozialen Realität, das Gegenstand der Studie war. Jede Stufe beinhaltet die Verwendung einer entsprechenden Klasse von Analyseverfahren. Die Klasse der deskriptiven Verfahren umfasst Gruppierung und Typologie. Die zweite Klasse bilden logisch-analytische Verfahren, mit deren Hilfe soziale Zusammenhänge und deterministische Abhängigkeiten aufgedeckt werden. Die dritte Klasse prognostischer Verfahren sind Extrapolation, Modellierung und Expertise.

Lassen Sie uns jede dieser Analysemethoden genauer betrachten.

ICH. Beschreibungsverfahren. Im Allgemeinen handelt die Beschreibung als Funktion wissenschaftlicher Erkenntnisse, die in einer konsistenten, vollständigen und logisch zusammenhängenden Fixierung der elementaren Zusammensetzung, Eigenschaften und Beziehungen des zu untersuchenden Objekts (Phänomens, Prozesses), dh seiner Struktur, besteht die erhaltenen empirischen Informationen. Die Hauptziele einer qualitativen Analyse nach einem beschreibenden Plan sind:

Ordnen der ersten empirischen Daten;

Suche nach stabilen Zusammenhängen und Trends in der Veränderung eines Objekts (Phänomen, Prozess);

Suche nach stabilen Kombinationen von Eigenschaften der untersuchten Objekte (Phänomene).

Die Analyse soziologischer Informationen nach dem Beschreibungsplan umfasst mehrere Stufen. Auf der ersten wird nach individuellen Merkmalen geordnet, einfache Verteilungen untersucht und mögliche Verzerrungen identifiziert. Dies ermöglicht eine Gesamtbeurteilung Stichprobenrahmen und private Teilstichproben (Geschlecht und Alter, territorial, ethnisch, beruflich usw.), was notwendig ist, um zwei Probleme zu lösen: erstens, um bei späteren komplexen Operationen und Kombinationen nicht die Idee ihres „primären Prinzips“ zu verlieren Daten, und zweitens, um zu verstehen, wie die Merkmale der Proben die Interpretation einer bestimmten Schlussfolgerung beeinflussen können.

Zum Beispiel deuten lineare Verteilungsdaten im Durchschnitt für eine Stichprobe von Wählern in einem Wahlkreis darauf hin, dass die Hauptqualitäten, die ein Abgeordneterkandidat besitzen sollte, den Befragten zufolge Intelligenz und Kreativität bei der Arbeit sind. Bevor der Soziologe diese Schlussfolgerung interpretiert, sollte er sich die Hauptmerkmale der Stichprobe ansehen: Vielleicht wird sie von Menschen mit einem hohen Bildungsniveau oder kreativen Berufen dominiert,

Die nächste Stufe der deskriptiven Analyse besteht im Verfahren der „Verdichtung“ empirischer Informationen: Vergrößerung der Ausgangsskalen, Identifizierung typischer Gruppen, die einer weiteren Analyse unterzogen werden, Bildung von Indexmerkmalen usw. Dies ermöglicht einerseits, die Anzahl der Variablen zu reduzieren und andererseits das Material auf der primären Ebene zu verallgemeinern, um es für den Forscher „beobachtbar“ zu machen. Dieses Verfahren ist besonders wichtig im OSI, das keine subtile Interpretation unwichtiger Einzelheiten impliziert. Interessieren wir uns in der weiteren Analyse beispielsweise für Gruppen von Befürwortern und Gegnern einer öffentlichen Aktion, dann wird die ursprüngliche 4-stufige Skala verwendet, mit der die Einstellung der Befragten zu dieser Aktion gemessen wurde („stimme voll und ganz zu“ – „stimme eher zu “ – „lehne eher ab“ – „verurteile ich voll und ganz“), kann es ratsam sein, die Angaben zu erweitern und die Befragten in zwei Gruppen zu unterteilen – Befürworter und Gegner der Veranstaltung. Darüber hinaus werden in dieser Phase der Analyse Indizes erstellt, um die anfänglichen Informationen zu erweitern und qualitative Merkmale in quantitative (d. h. messbare) Indikatoren umzuwandeln. In der Soziologie wird ein Index als integrierter Indikator für den Entwicklungsstand oder die Ausprägung eines Merkmals verstanden, der anhand von Skalen gemessen wird. Es kann ausgedrückt werden als:

a) gewichteter Durchschnitt der Werte jeder der Antwortmöglichkeiten in der Rangskala;

b) der Wert der Differenz zwischen hohen und niedrigen, positiven und negativen Manifestationen eines qualitativen Merkmals (Kontrastindex), beispielsweise als Differenz zwischen der Anzahl der Personengruppen, die ein Ereignis voll und ganz billigen und vollständig verurteilen.

Um qualitative Informationen in quantitative Informationen umzuwandeln, werden jedem Attributwert zunächst bestimmte Zahlenwerte zugewiesen („Ich stimme voll und ganz zu“ - 1; „Ich stimme eher zu“ - 2 usw.), die als primäre Indizes für die eine oder andere Manifestation dienen dieses Attributs. Dann wird der Sekundärindex als ein bestimmter ganzzahliger numerischer Wert konstruiert, der als Ergebnis einer mathematischen Operation mit Primärindizes (Berechnung von arithmetischen Mittelwerten oder Differenz zwischen Extremwerten usw.) erhalten wird. Der sekundäre Index charakterisiert die quantitative Manifestation des untersuchten Merkmals als Ganzes: das Maß an Unterstützung, Bewusstsein, Zustimmung, Zufriedenheit, das sich in mehreren Variablen widerspiegelt.

Die Verallgemeinerung von Informationen auf umfangreichere Strukturen erfordert eine Zwischeninterpretation der aggregierten Merkmale, da dies neue Eigenschaften sind, die auf eine bestimmte Weise interpretiert werden müssen, d.h. gib ihnen eine Bedeutung. Im Allgemeinen erfolgt die anfängliche empirische Interpretation der Grundkonzepte in der Phase der Forschungsprogrammierung. Dementsprechend sollten alle im Zuge einer qualitativen Analyse gewonnenen neuen aggregierten Indikatoren in das entwickelte Interpretationsschema „einbezogen“ werden.

Wenn wir zum Beispiel die Ursachen für einen schlechten Vorlesungsbesuch von Studenten untersuchen, müssen wir in der ersten Phase der Analyse einen Satz von Anfangsdaten über den Vorlesungsbesuch von Studenten A, B, C, ... in sichere umwandeln Index, der den Grad der Vorlesungsteilnahme dieser Gruppe charakterisiert. Dann müssen wir es als hoch, mittel oder niedrig bewerten (interpretieren) und es so zu einem sozialen Indikator für das untersuchte Phänomen machen.

Auf Basis der gewonnenen Sozialindikatoren erfolgt mit Hilfe deskriptiver Statistikverfahren eine sinnvolle Interpretation der soziologischen Forschungsdaten, um deskriptive Hypothesen zu testen.

Deskriptive Analysemethoden. Dazu gehören zunächst die Methoden der einfachen und übergreifenden Gruppierung und der empirischen Typologie.

Gruppierung. Angenommen, die linearen Verteilungsdaten zeigen, dass die Meinungen der Befragten über ein bestimmtes politisches Ereignis geteilt sind: 60 % billigen es, 40 % verurteilen es. Diese Zahlen sagen für sich genommen nichts über die Gründe für eine solche Polarisierung der Meinungen, die Tendenzen dieses Prozesses und die Prognose zukünftiger Veränderungen in der öffentlichen Meinung aus. Um all diese Fragen beantworten zu können, muss der Soziologe wissen, welche soziodemografischen Gruppen möglichst die Träger einer bestimmten Meinung darstellen, wie sie auf ähnliche Ereignisse in der Vergangenheit (oder anderswo) reagiert haben usw.

Um dieses Ziel zu erreichen, wird in der ersten Phase der Analyse eine einfache Gruppierung durchgeführt – die Auswahl homogener Gruppen innerhalb der befragten Bevölkerung nach einem signifikanten (für die Zwecke dieser Studie) Merkmal. Ein solches Zeichen kann ein beliebiges soziodemografisches Merkmal (Geschlecht, Alter, Bildung, Wohnort) oder ein von den Befragten geäußertes Urteil oder bestimmte Verhaltensweisen usw. sein.

Wenn zum Beispiel das Problem des abweichenden Verhaltens von Jugendlichen untersucht wird, ist es logisch, in der befragten Bevölkerung eine Gruppe herauszugreifen, die ein Zeichen für bestimmte Formen von Abweichungen hat, und eine Gruppe, die dieses Zeichen nicht hat (d. h. normale Teenager). .

Quantitative Indikatoren werden in Rangreihen gruppiert, wenn das Attribut zunimmt oder abnimmt, und qualitative Indikatoren werden nach dem Prinzip der Konstruktion ungeordneter Nominalskalen gruppiert.

Die Anzahl der Mitglieder einer Gruppe wird Häufigkeit genannt, und das Verhältnis von der Größe einer gegebenen Gruppe zu Gesamtzahl Beobachtungen - Anteile oder relative Häufigkeit. Die einfachste Analyse von Gruppen ist die Berechnung von Häufigkeiten nach Prozent.

Das folgende Analyseverfahren gemäß dem Beschreibungsplan umfasst den Vergleich der gruppierten Daten: 1) mit Daten aus anderen Studien; 2) untereinander; 3) mit allen zugehörigen externen Merkmalen.

1. Der Abgleich mit Daten aus anderen Studien erfolgt - vorbehaltlich der Vergleichbarkeit soziologischer Angaben - in zwei möglichen Formen:

a) die Form des Vergleichs von Daten, die sich auf dasselbe Objekt beziehen, aber in unterschiedlichen Zeiträumen gewonnen wurden (z. B. in wiederholten Studien). Auf diese Weise können Sie die Dynamik und die wichtigsten Trends bei der Änderung des Objekts erkennen.

b) die Form des Vergleichs der Ergebnisse von Studien, die an verschiedenen Objekten, aber innerhalb desselben Zeitraums durchgeführt wurden. Dies erlaubt unter gewissen Vorbehalten, die Hypothese über die Richtigkeit der Ergebnisse einer einmaligen Studie zu bestätigen. So kamen beispielsweise 1994 BSU-Soziologen, die die Probleme der Religiosität in der Republik Belarus untersuchten, zu einem Ergebnis, wonach der Anteil der Gläubigen an der Bevölkerung 33 % betrug (weitere 8,5 % antworteten, dass sie „auf dem Weg zum Glauben“ seien “). Diese Daten wurden mit den Forschungsdaten russischer Soziologen verglichen, denen zufolge in den Jahren 1992-1993. der Anteil der Gläubigen unter den Russen betrug 40 %. Ein solcher Vergleich ließ uns annehmen, dass die in der Republik Belarus erhaltene Zahl kein Zufall ist, dass sie mehr oder weniger angemessen die tatsächliche Situation im Untersuchungsgebiet widerspiegelt.

2. Der Vergleich als Verhältnis zwischen den Elementen der Zahlenreihe ermöglicht es, die Ergebnisse von Gruppierungen ziemlich zuverlässig zu interpretieren, falls der modale (größte) Wert in der Zahlenreihe deutlich hervortritt. Der Vergleich der Elemente untereinander besteht dann in ihrer Rangordnung (z. B. nach dem Grad der Zufriedenheit der Schüler mit der Organisation des Bildungsprozesses).

3. Der Vergleich von Daten mit verwandten externen Merkmalen wird in Fällen durchgeführt, in denen die Verteilung der Zahlenwerte der Reihe es schwierig macht, sie miteinander zu korrelieren. Um beispielsweise die vorrangigen Interessen der Fernsehzuschauer zu beurteilen, müssen wir den Anteil derjenigen, die an bestimmten Tagen Informations- und politische Sendungen gesehen haben, mit den Anteilen derjenigen vergleichen, die an diesen Tagen Spielfilme, Sportsendungen usw. gesehen haben.

Auf diese Weise, vergleichende Analyse Daten, die nach der Methode der einfachen Gruppierung erhalten wurden, ermöglichen Rückschlüsse auf den Zustand und die Art der Veränderungen des untersuchten Phänomens, geben jedoch keine Vorstellung von den stabilen Beziehungen zwischen seinen einzelnen Merkmalen und dementsprechend von den Ursachen die stattfindenden Veränderungen.

Die Aufgabe, stabile Zusammenhänge und Abhängigkeiten zu finden, Prozesstendenzen werden durch die Methode gelöst Kreuzgruppierung - Klassifizierung von Tatsachen, zuvor nach zwei Kriterien geordnet. Die Kreuzgruppierung erfolgt in Form von Tabellen, die angeben, welche Merkmale übereinstimmen, und die Gesamtzahl der in der Gruppierung enthaltenen Objekte.

Tabelle 5.9

Einstellung zum religiösen Glauben in Abhängigkeit vom Alter (%)

Diese Tabelle veranschaulicht die Verwendung der Kreuzgruppierung, um einen Trend, Prozessdynamik, zu finden. Die darin präsentierten Daten bezeugen, dass die Zahl der Gläubigen monoton mit dem Alter der Befragten zunimmt. Im Gegenteil, der Anteil der Menschen mit einem unbestimmten, schwankenden Bewusstsein nimmt mit zunehmendem Alter ab: Je älter ein Mensch wird, desto klarer wird seine Position zum Glauben. Offensichtlich kann dies auch erklären, dass die Zahl der Ungläubigen auch in der Gruppe der über 60-Jährigen zunimmt, d.h. Diese Gruppe hat die größte Zahl von Gläubigen und Ungläubigen und die kleinste Zahl von Schwankenden.

Beim Lesen einer Tabelle, die auf der Grundlage von Kreuzgruppierungen erstellt wurde, ist es wichtig zu wissen, was als 100 % angenommen wird: Daten pro Zeile oder pro Spalte? Als V.A. Yadov, „es hängt von zwei Umständen ab: von der Art der Stichprobe und von der Logik der Analyse.... Wenn die Stichprobe repräsentativ ist und die Anteile der untersuchten Gruppen der Allgemeinbevölkerung widerspiegelt, ist eine Analyse möglich die Daten auf zwei Arten: nach der Logik „von der Ursache zur Wirkung“ und „von der Wirkung zu den Gründen“.

Betrachten Sie das folgende Beispiel. Angenommen, 1000 Teenager wurden befragt, 200 von ihnen fanden irgendeine Form von sozialen Abweichungen (Abweichungen) und 800 nicht. Hypothese: Einer der Faktoren, die das Wachstum abweichenden Verhaltens beeinflussen, ist die Abwesenheit eines Elternteils in der Familie.

Nehmen wir an, die Befragten verteilen sich je nach Familientyp (vollständig - unvollständig) wie folgt:

Tabelle 5.10

Erste Quergruppierung der Daten: Familientyp und Sozialverhaltenstyp (N=1000 Personen)

Lassen Sie uns nach der Logik „von der Ursache zur Wirkung“ analysieren. Wir schlugen vor, dass einer der Gründe für das Auftreten von Abweichungen bei Jugendlichen eine unvollständige Familienzusammensetzung sein könnte. Bei diesem Ansatz werden die Daten pro Zeile mit 100 % angenommen, d. h. wir vergleichen den Anteil der „Abweichler“, die in vollständigen Familien leben, mit dem Anteil der „Abweichler“, die in Einelternfamilien leben (siehe Tabelle 5.11).

Tabelle 2a

Einfluss des Familientyps auf das Sozialverhalten von Jugendlichen (in %)

Fazit: Jugendliche aus unvollständigen Familien weisen häufiger Abweichungen im Sozialverhalten auf.

Jetzt werden wir nach der Logik „von der Wirkung zu den Ursachen“ analysieren. Hier werden die Spaltendaten als 100 % angenommen, d. h. wir vergleichen innerhalb der Gruppe der Jugendlichen mit abweichendem Verhalten: die Anzahl der in intakten Familien lebenden mit der Anzahl der in Alleinerziehenden lebenden Personen (siehe Tabelle 5.12).

Tabelle 5.12

Anteil der Teenager mit Anderer Typ Sozialverhalten in Voll- und Alleinerziehendenfamilien (in %)

Fazit: Drei Viertel der befragten Jugendlichen mit abweichendem Verhalten leben in unvollständigen Familien. In diesem Fall bestätigten sowohl retrospektive als auch Designanalysen die anfängliche Hypothese über den Einfluss des Familientyps auf die Art des Sozialverhaltens von Jugendlichen.

Wenn die Stichprobe nicht repräsentativ ist, sollte die Prozentierung für jede Teilstichprobe separat durchgeführt werden. Typischerweise werden solche Teilstichproben auf der Grundlage von wirkenden Merkmalen gebildet mögliche Gründe untersuchtes Phänomen: Geschlecht und Alter, sozialer Status usw. Hier wird die Diskrepanz zwischen den Anteilen der Teilstichproben und der Verteilung der Grundgesamtheit die Schlussfolgerung nicht verzerren (die Logik von Tabelle 5.11).

In der Praxis sieht sich ein Soziologe jedoch in der Regel mit der Notwendigkeit konfrontiert, die gegenseitigen Bestimmungen nicht eines, sondern mehrerer Faktoren gleichzeitig zu identifizieren und zu berücksichtigen, die das untersuchte Phänomen beeinflussen. Dieses Verfahren wird wie folgt durchgeführt.

Nehmen wir an, dass der Zweck der Studie darin besteht, Faktoren zu finden, die die niedrigen schulischen Leistungen von Studierenden in allen akademischen Disziplinen beeinflussen. Es werden Hypothesen aufgestellt, dass die Hauptgründe für die geringen schulischen Leistungen der Studierenden sein können: mangelndes Interesse an den Studieninhalten; schlechtes Verhältnis zum Lehrer; geringe Vorbereitung der Schüler, die es ihnen nicht erlaubt, das Lehrmaterial zu beherrschen.

Es ist möglich, dass die Analyse das Vorliegen eines stabilen Zusammenhangs zwischen dem Niveau der Studienleistung und dem Interesse an den Studieninhalten aufzeigt. Es ist möglich, dass die gefundene Verbindung nur ein Schein ist, d.h. sie hat den Charakter einer begleitenden oder nachträglichen, aber nicht kausalen Abhängigkeit. In diesem Fall ändern sich entweder beide Zeichen und gehorchen einem dritten Faktor, oder das mangelnde Interesse der Schüler ist eine Funktion, die beispielsweise ihre geringe Bereitschaft und als Folge schlechte schulische Leistungen vermittelt. In diesem Fall wird eine Beziehungsanalyse durchgeführt, die aus der zweidimensionalen Verteilungstabelle eine dreidimensionale macht. Nehmen wir ein Beispiel. Die Ergebnisse der Studie zur Zufriedenheit mit den Lebensumständen zeigten, dass ein Zusammenhang zwischen dieser Variable und dem Geschlecht der Befragten besteht: Männer sind generell zufriedener mit ihren Lebensumständen als Frauen. Für ein abschließendes Fazit ist es jedoch noch zu früh. Es ist bekannt, dass es unter Frauen mehr ältere und einsame Menschen gibt (sowohl aufgrund einer längeren natürlichen Lebenserwartung als auch aufgrund einer im Vergleich zu Männern geringeren Sterblichkeit infolge von Unfällen, Kriegen usw.). Diese Personengruppe ist in unserer Gesellschaft wirtschaftlich schlecht abgesichert und ihre Lebensbedingungen sind oft schlechter als die anderer sozialer Gruppen. Daher ist es möglich, dass die zweidimensionalen Gruppierungsdaten durch den höheren Anteil älterer Menschen unter den Frauen erklärt werden. Wir konstruieren eine dreidimensionale Matrix, in der wir neben der unabhängigen Variablen (Geschlecht) und der abhängigen Variablen (Zufriedenheit mit den Lebensumständen) einen Kontrollfaktor (Alter) einführen.

Tabelle 5.13

Grad der Zufriedenheit mit den Lebensumständen

nach Geschlecht und Alter (in %)

Die in der Tabelle dargestellten Daten zeigen, dass unsere vorläufige Schlussfolgerung nur für ältere Altersgruppen gilt: von 45 bis 59 Jahren und insbesondere über 60 Jahren. In mehr Junges Alter Es gibt keine signifikanten Unterschiede in der Zufriedenheit mit den Lebensbedingungen in Abhängigkeit vom Geschlecht der Befragten.

Empirische Typologie. Dies ist die leistungsstärkste Analysemethode nach einem beschreibenden Plan, der es ermöglicht, a) typologische Gruppen nach mehreren gleichzeitig festgelegten Kriterien zu bilden; b) stabile Kombinationen der Eigenschaften sozialer Objekte (Phänomene) finden, die in einem mehrdimensionalen sozialen Raum betrachtet werden.

Das erste Verfahren wird in der Phase der Forschungsprogrammierung durchgeführt und dient dazu, homogene Gruppen zu identifizieren, die die stabilsten zu untersuchenden qualitativen Merkmale aufweisen. Tatsache ist, dass das gewöhnliche Bewusstsein einer Massenperson durch Mobilität, Eklektizismus und innere Widersprüchlichkeit gekennzeichnet ist. Seine Meinungen und Einschätzungen werden oft nicht auf der Grundlage einer Reihe stabiler Überzeugungen und Werte gebildet, sondern unter dem Einfluss äußerer Faktoren, momentaner Ereignisse. Zum Beispiel die Einstellung zu Politiker kann dadurch bestimmt werden, wie gut oder erfolglos er am Vortag im Fernsehen aufgetreten ist. Darüber hinaus können die Antworten der Befragten weniger von ihrer persönlichen Position als vielmehr von sozialen Moden, normativen Vorstellungen einer bestimmten sozialen Gruppe usw. bestimmt werden. (Religion wurde zum Beispiel Anfang der 1990er Jahre zum Objekt einer solchen Mode, in deren Zusammenhang im postsowjetischen Raum eine deutliche Zunahme der Zahl der Gläubigen, oder besser der Menschen, die sich als Gläubige bezeichnen, zu beobachten war). In der operationellen soziologischen Forschung ist es aufgrund ihrer Zielspezifika sehr wichtig, genaue Informationen über die Anzahl bestimmter Gruppen, die bestimmte Ansichten vertreten, und ihre Verhaltenseinstellungen zu erhalten. Um zufällige, unaufrichtige oder impulsive Entscheidungen herauszufiltern, werden in diesem Fall Gruppen auf der Grundlage der Antworten der Befragten nicht auf eine, sondern auf einen Block logisch zusammenhängender Fragen gebildet. Zum Beispiel in Wahlstudien, wie D.G. Rotman enthält ein solcher Block die folgenden Variablen:

b) ein Maß an politischer Durchgängigkeit (die Möglichkeit, gewählt zu werden);

c) Vertrauen in die Perspektiven eines Politikers (einer Partei);

d) eine Bewertung der konkreten Aktionen dieses Leiters im Moment.

Außerdem werden auf der Grundlage der erhaltenen Antworten Gruppen von „harten Befürwortern“ (dazu gehören Befragte, die diesen Führer nach allen Kriterien für alle Fragen am positivsten bewertet haben), „harten Gegnern“ (Befragte, die in allen Fällen weigerte sich, dieser Person zu vertrauen, und bewertete seine Aktivität als negativ). Der Rest gehört zur Gruppe der „Fluktuationen“.

Ebenso reicht es zur Einschätzung des Religiositätsniveaus der Bevölkerung nicht aus, durch Selbstidentifikation die Zahl der Menschen zu bestimmen, die an Gott glauben, da der Glaube rein äußerlich, deklarativ usw. sein kann. Charakter. Um den Anteil echter Gläubiger zuverlässig zu bestimmen, ist es notwendig, in die Zahl der gruppenbildenden Kriterien Merkmale wie Zugehörigkeit zu einer bestimmten Konfession und stabiles Sektenverhalten einzuführen. Und wenn sich heute etwa die Hälfte der Bevölkerung der Republik Belarus als Gläubige betrachtet, dann reduziert sich ihr Anteil in einer Kombination von drei Zeichen auf 7-8%.

Das zweite Verfahren der empirischen Typologie besteht darin, nach stabilen Kombinationen der Eigenschaften der untersuchten Phänomene zu suchen.

Jedes Fragment der sozialen Realität als Gegenstand des Forschungsinteresses hat gleichzeitig eine große Anzahl miteinander verbundener und voneinander abhängiger Eigenschaften. Außerdem wird diese Beziehung oft immer wieder vermittelt: So kann die Korrelation zwischen zwei Merkmalen beispielsweise durch ein drittes Merkmal verursacht werden, das außerhalb des Blickfeldes des Soziologen geblieben ist.

Clusteranalyse– Methode der mehrdimensionalen Klassifikation von Objekten, d.h. eine Methode, die eine Klassifizierung nach vielen Kriterien gleichzeitig erlaubt. Es ist sehr wichtig, dass es sowohl mit quantitativen als auch mit qualitativen Merkmalen arbeitet, was besonders wichtig ist, wenn gemischte Daten analysiert werden, die sowohl quantitative als auch qualitative Informationen enthalten.

Mit der Clusteranalyse können Sie den Datensatz so in homogene Gruppen aufteilen, dass die Unterschiede zwischen Objekten derselben Gruppe viel geringer sind als zwischen Objekten unterschiedlicher Gruppen. Das Kriterium der Differenz (Ähnlichkeit) für quantitative Merkmale sind meistens Distanzmaße im euklidischen Raum, für qualitative - Maße der Verbindung oder Ähnlichkeit (Chi-Quadrat, Yule-Koeffizient und andere).

Faktorenanalyse- eine Methode zur statistischen Analyse einer großen Anzahl von Merkmalen, die es ermöglicht, ihre strukturellen Beziehungen zu identifizieren. Das Hauptproblem, das durch die Faktorenanalyse gelöst wird, besteht darin, Methoden für den Übergang von einer bestimmten Anzahl relativ leicht messbarer Merkmale des untersuchten Phänomens zu einer bestimmten Anzahl latenter (äußerlich nicht beobachtbarer) Faktoren dahinter zu finden, deren Existenz nur möglich ist angenommen werden. Diese Methode ermöglicht es, die Struktur jedes komplexen sozialen Phänomens (Prozesses) aufzudecken und die Faktoren zu bestimmen, die es bestimmen. Die Namen, die den ausgewählten Faktoren gegeben werden, sind in der Regel bedingt und werden durch Assoziation mit den Merkmalen ausgewählt, die am stärksten mit diesem Faktor verbunden sind, d.h. haben die höchste Faktorladung. Unter der Faktorlast versteht man die Signifikanz des einen oder anderen Attributs in der abgegrenzten Gruppe von Variablen. Die Faktorenanalyse ermöglicht es uns also, die Bedeutung jedes der Elemente des untersuchten Phänomens (Prozesses) in der Gesamtstruktur des letzteren abzuwägen.

Das Vorgehen der empirischen Typologie ermöglicht den direkten Übergang zur Analyse stabiler (d. h. für die Zwecke der Studie signifikanter) Zusammenhänge und beinhaltet die Durchführung einer sinnvollen Interpretation der erhobenen Daten.

Deutung- Dies ist eine Reihe von Werten, Bedeutungen, die der Forscher den erhaltenen empirischen Informationen oder sozialen Indikatoren beimisst. In der Regel werden diese Daten anhand von Bewusstseinsbildern interpretiert, die der erfassten gesellschaftlichen Realität angemessen sein müssen. Inzwischen ist die Beziehung zwischen realen Objekten und ihrem Abbild immer ungefähr, unvollständig. Und in diesem Sinne muss jede Interpretation, um relativ richtig zu sein, untrennbar mit dem spezifischen Inhalt der Sphäre des sozialen Lebens verbunden sein, zu der sie gehört, weshalb sie immer situativ und einzigartig ist. „Ganz gleich, wie vollständig und spezifisch die erhaltenen Informationen sind“, schreibt G.S. Batygin - es ist immer in einem bestimmten "Koordinatensystem" platziert und fungiert als Fragment eines größeren Bildes, dessen Inhalt die Wissenschafts- und Lebenserfahrung des Soziologen ist.

Natürlich müssen die Grundlagen für die Interpretation und Erklärung der Daten gelegt werden Forschungsprogramm auf der Stufe der empirischen Operationalisierung und Interpretation grundlegender Konzepte. Ihre Gesamtheit bildet ein bestimmtes Interpretationsschema, das als spezifische semantische Matrix fungiert, die dem Forscher eine bestimmte „Perspektive“ auf das Problem gibt. Die Konstruktion solcher Schemata ist eine nicht formalisierte Operation, die ein hohes Maß an theoretischer, methodologischer und analytischer Kultur des Soziologen voraussetzt.

Dann werden auf der Grundlage des entwickelten Interpretationsschemas die Ausgangshypothesen getestet und gegebenenfalls ergänzt und verfeinert.

Allerdings gibt es aus mehreren Gründen oft erhebliche Schwierigkeiten bei der Interpretation von Umfragedaten. Nennen wir einige davon.

1. In der Regel werden im OSI die stereotypen Vorstellungen von Menschen über etwas untersucht. Auf der Stufe der Programmierung werden diese Repräsentationen einer logisch-verbalen Verarbeitung und Transformation unterzogen, und im alltäglichen Verhalten von Menschen vollzieht sich das Funktionieren von Stereotypen meist auf einer unbewussten Ebene. Indem wir dem Befragten die eine oder andere Frage stellen und eine Reihe vorgefertigter Antworten anbieten, „programmieren“ wir sozusagen sein Bewusstsein, denn es ist sehr wahrscheinlich, dass er denkt, wenn er an der Umfrage teilnimmt über dieses Problem zum ersten Mal in seinem Leben. In diesem Fall können die Antworten zufällig, widersprüchlich oder in Begriffen präsentiert werden, die ihm im Fragebogen auferlegt werden.

2. Jeder Mensch fungiert als einzigartige Individualität zugleich als Träger eines bestimmten sozialen Gruppenbewusstseins, d.h. teilt die Normen, Werte und Meinungen der sozialen Gruppen, denen sie angehört. Infolgedessen stoßen Soziologen häufig auf das Phänomen des „gespaltenen“ Bewusstseins: Derselbe Befragte kann negative Bewertungen äußern und gleichzeitig positive Einstellungen zu jedem Wert haben, der sozusagen in zwei „Bezugssystemen“ existiert – normativ – Gruppe und individuell – pragmatisch.

Dass diese beiden Bewusstseinsebenen nicht immer übereinstimmen, erklärt V.A. Yadov verbindet mit Unterschieden in Inhalt und Struktur von Einzel- und Gruppeninteressen. Erstere dienen als Voraussetzung für „Verhaltensprogramme“, letztere dienen als Grundlage für „normative Vorgaben“, die oft nicht mit ersteren übereinstimmen.

Die in der Praxis der soziologischen Forschung verwendeten Werkzeuge zur Erhebung und Analyse von Daten basieren auf der in den Naturwissenschaften entwickelten Tradition der „rigorosen“ Prüfung von Hypothesen. Diese Tradition legt nahe, dass Hypothesen eindeutig sein und auf dem Gesetz der ausgeschlossenen Mitte beruhen müssen. Alles Material, das diese Anforderungen nicht erfüllt, wird oft als Informations-"Rauschen" angesehen und von der Analyse ausgeschlossen. Es sollte jedoch daran erinnert werden, dass in der Soziologie die Technologie der „rigorosen“ Prüfung von Hypothesen nicht immer gerechtfertigt ist; sie kann dem Forscher vereinfachte und infolgedessen fehlerhafte Interpretationsschemata auferlegen, bei denen alle situativen Abweichungen von einem bestimmten normativen Modell auftreten als fehlerhaft oder zufällig angesehen werden.

In diesem Sinne können strenge Methoden der Hypothesenprüfung keine Vorstellung vom tiefen sozialen Kontext der untersuchten Beziehungen geben, sie dienen nur als Quellenmaterial für weitere Interpretationen und Erklärungen. Als G.S. Batygin, „liegt die tatsächliche soziologische Interpretation „jenseits“ empirischer Daten und wird durch die Besonderheiten des untersuchten Phänomens oder Prozesses bestimmt. Sie beinhaltet die Vorstellung einer konkreten Situation, in die sich der Akt des Messens „einschreibt“ (Beobachten, Fragen, Experimentieren). Letzteres wird in diesem Fall zu einem der Elemente der Lebenssituation, d.h. Studienobjekt".

Somit umfasst das soziologische Interpretationsschema neben der direkten formalisierten Überprüfung von Hypothesen auch einige nicht-formalisierte Ideen, Kenntnisse und Intuitionen des Forschers, die jenen spezifischen sozialen Kontext bilden, der es einem ermöglicht, aus vielen möglichen „Lesungen“ empirischer Daten auszuwählen eine, die der Realität am ehesten entspricht.

II . Erläuterung Verfahren. Wenn Informationen im Rahmen einer erklärenden Art von Forschung analysiert werden, dürfen wir uns nicht auf deskriptive Verfahren beschränken, sondern müssen die Interpretation vertiefen und die Fakten erklären, indem wir mögliche Einflüsse auf aggregierte Eigenschaften, identifizierte soziale Typen, usw.

Unter Erläuterung Die Funktion wissenschaftlicher Erkenntnis wird verstanden, entweder durch das Erfassen der Gesetze, denen der untersuchte Gegenstand unterliegt, oder durch das Herstellen jener Verbindungen und Beziehungen, die seine wesentlichen Merkmale ausmachen. Im Wesentlichen ist Erklärung in der Wissenschaft der Akt, empirisches Wissen über das zu erklärende Objekt (Prozess, Phänomen) in einen breiteren Kontext theoretischen Wissens einzubeziehen.

Je nach Art des Zusammenhangs zwischen dem Objekt und den ihn bestimmenden Faktoren, Bedingungen etc. gibt es mehrere Grundformen der wissenschaftlichen Erklärung.

Kausal, Wenn:

a) ein Objekt (Phänomen, Vorgang) wird erklärt, indem es einen regelmäßigen Zusammenhang mit anderen ihm zeitlich vorausgehenden Objekten herstellt;

b) der aktuelle Zustand des Objekts wird durch seine vergangenen Zustände erklärt.

genetisch wenn das zu erklärende Objekt in die Kette von Ursache-Wirkungs-Beziehungen eingebunden wird, innerhalb derer es als Folge eines Phänomens selbst zur Ursache eines anderen wird. Entlang dieser Kette bis zum Anfangszustand des Objekts können wir seine Genese als Ganzes rekonstruieren, was uns erlaubt, seine zukünftigen Veränderungen am zuverlässigsten vorherzusagen.

Strukturell-funktional, wenn ein soziales Objekt als strukturell sezierte Integrität betrachtet wird, von der jedes Element eine bestimmte Rolle im System spielt, d.h. hat seinen eigenen funktionalen Zweck, was bedeutet, dass es sich entsprechend seiner Stellung in der Struktur des Objekts auf natürliche Weise verhält.

Nach dem Kriterium der Zuverlässigkeit kann unterschieden werden zuversichtlich und angeblich Erläuterung.

Eine sichere Erklärung wird in dem Fall durchgeführt, wenn die empirischen Informationen, die zur Herstellung eines kausalen Zusammenhangs zwischen dem Objekt und den es beeinflussenden Faktoren erforderlich sind, vollständig in den Quellenmaterialien der Studie enthalten sind. Diese Art der Erklärung ist jedoch nur in Bezug auf einige bestimmte Tendenzen möglich, die in ihren raumzeitlichen Parametern begrenzt sind. Im OSI ist außerdem eine notwendige (aber nicht hinreichende) Bedingung für eine zuverlässige Erklärung das Vorhandensein der Ergebnisse einer Reihe wiederholter Messungen des Überwachungstyps, die einen offensichtlichen Trend in der Zustandsänderung zeigen würden soziales Objekt.

Aber in der Regel erfordert die Untersuchung eines sozialen Phänomens, dass seine Erklärung über die Grenzen verfügbarer empirischer Informationen hinausgeht: Sekundärdatenanalyse, Bezugnahme auf den spezifischen sozialen Kontext des untersuchten Phänomens, kulturhistorische Vergleiche usw. In diesem Fall können wir nur von einer Erklärung hypothetischer Natur sprechen, wenn alle oben genannten Verfahren die gezogenen Schlussfolgerungen bestätigen, jedoch die Informationen, die sie (Verfahren) ermöglichen, nicht direkt in den Quellenmaterialien dieser Studie enthalten sind .

Lassen Sie uns ein Beispiel für diese Art von qualitativer Analyse geben, die 1994 von Soziologen der Belarussischen Staatlichen Universität durchgeführt wurde, als sie den Einfluss des Tschernobyl-Faktors auf das Wachstum der Religiosität der Bevölkerung untersuchten, die in der Zone der radioaktiven Kontamination lebt. Die Ausgangshypothese war hier, dass jede Katastrophe katastrophaler Natur, die scharfe und langfristige negative Veränderungen im Leben großer Menschenmassen (Kriege, Revolutionen, Wirtschaftskrisen) verursacht, auf die eine oder andere Weise zur Stärkung der Religiosität in jedem beiträgt Gesellschaft. Dies wird durch die Daten der Welt und belegt nationale Geschichte. Um die Hypothese während der Umfrage zu testen, wurden zwei Teilstichproben gebildet: Die erste bestand aus Menschen, die in der Tschernobyl-Zone leben, deren Gesundheit (und manchmal auch Leben) ständig bedroht ist; die zweite bestand aus Menschen, die an „sauberen“ Orten lebten. Angesichts der Gleichheit ihrer grundlegenden soziodemografischen Merkmale könnten die Unterschiede im Religiositätsniveau auf den störenden Einfluss des Tschernobyl-Faktors zurückgeführt werden. Die Ergebnisse der Umfrage zeigten jedoch nicht die erwarteten Unterschiede: Die Zahl der Gläubigen fiel in beiden Teilstichproben ungefähr gleich aus. Als Hypothesen zur Erklärung dieser Tatsache wurden die folgenden Annahmen aufgestellt:

1. Vielleicht sind die Auswirkungen der Tschernobyl-Katastrophe auf den Zustand des Massenbewusstseins indirekter, komplexer Natur: Wenn sie (die Katastrophe) in den ersten Jahren der Perestroika ein einzigartiges Ereignis vor dem Hintergrund relativer politischer und wirtschaftlicher Stabilität war, dann nach 1991 ging diese Stabilität drastisch verloren. Die negativen Faktoren der wirtschaftlichen und politisches Leben(Zusammenbruch der UdSSR, wirtschaftlicher Zusammenbruch usw.), die in Bezug auf ihre Bedeutung für persönliche Schicksale der Menschen erwiesen sich als vergleichbar mit Tschernobyl und „blockierten“ es in gewisser Weise. Um diese Vermutung zu belegen, wurde eine vergleichende Analyse zweier Studien durchgeführt, die von verschiedenen Forschungsgruppen der BSU in den Jahren 1990 und 1994 durchgeführt wurden. Beide Erhebungen wurden sowohl in „sauberen“ als auch in kontaminierten Gebieten der Republik Belarus durchgeführt (siehe Tabelle 5.14).

Tabelle 5.14

Bedeutung der Tschernobyl-Problematik für die Bevölkerung der Republik Belarus (in %)

Die in der Tabelle angegebenen Daten bezeugen das Folgende. Die Zahl derjenigen, die die Tschernobyl-Problematik für sich als die wichtigste einschätzen, ist ungefähr gleich, obwohl es logischer wäre, zu erwarten, dass die Bedeutung des Ereignisses mit der Zeit nachlässt. Dies geschah jedoch nicht; im Gegenteil, der Anteil der Menschen, bei denen die Tschernobyl-Problematik in den Hintergrund getreten ist, hat sich halbiert (von 29,7 % auf 13,7 %). Gleichzeitig ist die Zahl derjenigen, für die diese Probleme ziemlich akut, aber zusammen mit anderen ebenso wichtigen Problemen sind, erheblich gestiegen (von 30,9 % auf 47,5 %).

Somit führt eine deskriptive Analyse der in Tab. 5.14 dargestellten Vergleichsdaten zu folgender Erklärung:

Die Bedeutung des Tschernobyl-Faktors im Massenbewusstsein nimmt im Laufe der Zeit nicht ab, aber im Kontext einer allgemeinen Systemkrise nimmt die Rolle wirtschaftlicher und politischer Faktoren zu, sie scheinen mit der Tschernobyl-Problematik und -Form an Bedeutung „einzuholen“. ein einzelnes Krisensyndrom in der subjektiven Wahrnehmung, das den psycho-emotionalen Zustand von Menschen negativ beeinflusst.

Mit anderen Worten, der Tschernobyl-Faktor hört auf, das Bewusstsein der betroffenen Bevölkerung in seiner „reinen“ Form zu beeinflussen, und beginnt indirekt, durch eine Kombination von sozioökonomischen Faktoren (materielle Schwierigkeiten, die Unfähigkeit, umweltfreundliche Produkte zu kaufen , schlechte Gesundheit usw.). Und dieser Faktor der Lebensbedingungen ist der gesamten Bevölkerung der Republik Belarus gemeinsam, unabhängig vom Wohnort.

2. Die zweite Hypothese, die das Fehlen eines sichtbaren Einflusses des Tschernobyl-Faktors auf die Religiosität der Bevölkerung erklären soll, bezieht sich auf die Besonderheiten der Vision von den Ursachen des Unfalls durch Gläubige verschiedener konfessioneller Richtungen.

In beiden Teilstichproben sind zwei Drittel der Gläubigen orthodox, etwa 17 % sind Katholiken. Der Anteil der Vertreter anderer Konfessionen erwies sich als statistisch unzuverlässig, daher wurde zur Kontrolle der Daten neben der in den „schmutzigen“ und „sauberen“ Zonen lebenden Bevölkerung eine Befragung unter den Gemeindemitgliedern der drei durchgeführt wichtigsten christlichen Konfessionen in Minsk: Orthodoxe, Katholiken und Protestanten. Eine Analyse der Vergleichsergebnisse zeigte, dass sie sehr gut sind auf verschiedene Arten Bewertung der Ursachen der Tschernobyl-Katastrophe (siehe Tabelle 5.15). Als solche Gründe tauchten in der Umfrage die polare Hauptdichotomie der Urteile auf, von denen einer rational-säkularer Natur war („das ist das Ergebnis menschlicher Verantwortungslosigkeit, Gott hat nichts damit zu tun“), und der zweite auf reduziert wurde eine religiös-sakrale Interpretation („das ist das Ergebnis der göttlichen Vorsehung, Strafe für die Sünden des Volkes“).

Die Analyse eines Stoffes kann durchgeführt werden, um seine qualitative oder quantitative Zusammensetzung festzustellen. Dementsprechend wird zwischen qualitativer und quantitativer Analyse unterschieden.

Mit der qualitativen Analyse können Sie feststellen, aus welchen chemischen Elementen die analysierte Substanz besteht und welche Ionen, Atomgruppen oder Moleküle in ihrer Zusammensetzung enthalten sind. Bei der Untersuchung der Zusammensetzung eines unbekannten Stoffes geht eine qualitative Analyse immer einer quantitativen voraus, da die Wahl einer Methode zur quantitativen Bestimmung der Bestandteile des analysierten Stoffes von den bei seiner qualitativen Analyse gewonnenen Daten abhängt.

Qualitative chemische Analyse hauptsächlich basiert auf der Umwandlung der analysierten Substanz in eine neue Verbindung „mit charakteristischen Eigenschaften: eine Farbe, einen bestimmten physikalischen Zustand, eine kristalline oder amorphe Struktur, einen bestimmten Geruch usw. Die dabei auftretende chemische Umwandlung wird als qualitative bezeichnet analytische Reaktion, und die Substanzen, die diese Umwandlung verursachen, werden als Reagenzien (Reagenzien) bezeichnet.

Ein weiteres Beispiel für eine qualitative chemische Analyse ist der Nachweis von Ammoniumsalzen durch Erhitzen des Analyten mit einer wässrigen Natriumhydroxidlösung. Ammoniumionen bilden in Gegenwart von OH"-Ionen Ammoniak, was am Geruch oder an der blauen Farbe von nassem rotem Lackmuspapier zu erkennen ist.

Bei der Analyse eines Gemisches aus mehreren ähnlichen Substanzen chemische Eigenschaften werden sie vorab getrennt und erst dann charakteristische Reaktionen für einzelne Substanzen (oder Ionen) durchgeführt, daher umfasst eine qualitative Analyse nicht nur einzelne Reaktionen zum Nachweis von Ionen, sondern auch Methoden zu deren Trennung.

Mit der quantitativen Analyse können Sie das quantitative Verhältnis der Bestandteile einer bestimmten Verbindung oder eines Stoffgemisches ermitteln. Im Gegensatz zur qualitativen Analyse ermöglicht die quantitative Analyse die Bestimmung des Gehalts einzelner Bestandteile des Analyten oder des Gesamtgehalts des Analyten im Testprodukt.

Methoden der qualitativen und quantitativen Analyse, mit denen der Gehalt einzelner Elemente in der analysierten Substanz bestimmt werden kann, werden als Elementaranalyse - Funktionsgruppen - bezeichnet. Funktionsanalyse; einzelne chemische Verbindungen, die durch ein bestimmtes Molekulargewicht gekennzeichnet sind - Molekularanalyse.

Eine Vielzahl von chemischen, physikalischen u physikalische und chemische Methoden Trennung und Bestimmung einzelner struktureller (Phasen-)Komponenten von heterogenen! Systeme, die sich in Eigenschaften und physikalischem Aufbau unterscheiden und durch Grenzflächen voneinander begrenzt sind, nennt man Phasenanalyse.

Qualitative (nicht-formalisierte) Analyseverfahren basieren auf der Beschreibung von Analyseverfahren auf der logischen Ebene und nicht auf strikten analytischen Abhängigkeiten. Dazu gehören Methoden: Expertenschätzungen, Szenarien, morphologische, Vergleich von Indikatorensystemen usw. Die Anwendung dieser Methoden ist durch eine gewisse Subjektivität gekennzeichnet, da Intuition, Erfahrung und Wissen des Analytikers von großer Bedeutung sind.

Expertenbewertungen sind quantitative oder ordinale Bewertungen von Prozessen oder Phänomenen, die nicht direkt gemessen werden können. Sie basieren auf der Einschätzung von Experten und können daher nicht als völlig objektiv angesehen werden. Es werden wissenschaftliche Methoden entwickelt, um einzelne Experteneinschätzungen so aufzubereiten, dass sie aggregiert mehr oder weniger objektive Antworten geben (durch durchdachte Frage-Antwort-Formulare, die anschließend von einem Computer verarbeitet werden).

Szenario - eine Beschreibung möglicher Optionen für die Entwicklung des Untersuchungsobjekts unter verschiedenen Kombinationen bestimmter Bedingungen (im Voraus ausgewählt) zum Zwecke der weiteren Analyse und Auswahl der realistischsten.

Die morphologische Analyse wird verwendet, um komplexe Prozesse vorherzusagen. Dies ist eine Expertenmethode einer systematischen Überprüfung aller möglichen Kombinationen der Entwicklung einzelner Elemente des untersuchten Systems. Es basiert auf vollständigen und strengen Klassifizierungen von Objekten, Phänomenen, Eigenschaften und Parametern des Systems, die es ermöglichen, mögliche Szenarien für seine Entwicklung als Ganzes zu erstellen und zu bewerten.

Quantitative (formalisierte) Analysemethoden basieren auf ziemlich streng formalisierten analytischen Abhängigkeiten. Lassen Sie uns sie auflisten:

Klassische Analysemethoden - die Methode der Kettensubstitutionen, Bilanz, Prozentzahlen, Differential, Integral, Diskontierung usw.;

Methoden der Wirtschaftsstatistik - Mittel- und Relativwerte, Gruppierung, Grafik, Index, elementare Methoden zur Verarbeitung von Zeitreihen;

Mathematische und statistische Methoden zur Untersuchung von Beziehungen - Korrelationsanalyse, Regressionsanalyse, Varianzanalyse, Faktoranalyse, Hauptkomponentenmethode, Kovarianzanalyse usw.;

Ökonometrische Methoden - Matrixmethoden, harmonische Analyse, Spektralanalyse, Methoden der Theorie der Produktionsfunktionen, Methoden der Theorie der Input-Output-Bilanz;

Methoden der Wirtschaftskybernetik und Optimale Programmierung - Methoden der Systemanalyse, Lineares Programmieren, nichtlineare Programmierung, dynamische Programmierung usw.;

Methoden des Operations Research und der Entscheidungstheorie - Methoden der Graphentheorie, Spieltheorie, Baummethode, Bayes'sche Analyse, Warteschlangentheorie, Netzwerkplanung und Managementmethoden.

Mathematische Methoden ermöglichen es Ihnen, ungefähre Berechnungen durch exakte Berechnungen zu ersetzen, um multivariate Vergleichsanalysen durchzuführen, was manuell fast unmöglich ist.

3. Methoden der Finanzanalyse: horizontale, vertikale und Trendanalyse

Horizontale Analysemethode- Wird verwendet, um Änderungen der Indikatoren in der Dynamik zu bewerten. Um die absolute Änderung des Indikators zu bestimmen, wird ein Wert berechnet, der gleich ist:

∆‡ = ‡ 1 - ‡ 0,

wobei Z 1 - der Wert des Indikators im Berichtszeitraum;

‡ 0 - der Wert des Indikators im Basiszeitraum.

Um die Wachstumsrate des Indikators zu beurteilen, wird der Wert berechnet:

T p (Z) \u003d Z 1: Z 0.

Der Wert des Indikators zeigt, wie oft sich der Wert des Indikators im Berichtszeitraum im Vergleich zum Basiszeitraum geändert hat.

Zur Beurteilung der relativen Veränderung wird die Wachstumsrate nach folgender Formel berechnet:

T pr (Z) \u003d (Z 1: Z 0 - 1) x 100% \u003d ∆Z: Z 0 x 100%.

Die Wachstumsrate von T pr (Z) zeigt, um wie viel Prozent sich der Wert des Indikators im Berichtszeitraum gegenüber dem Basiszeitraum verändert hat.

Vertikale Analysemethode- Wird zur Analyse komplexer Wirtschaftsindikatoren verwendet und ermöglicht die Bestimmung des Anteils jeder Komponente eines komplexen Indikators an der Gesamtbevölkerung.

Zur Bewertung der Struktur wird die Formel verwendet:

wo Di - i-ter Anteil Komponente;

Zi - absolut i-ter Wert eine in einem komplexen Indikator enthaltene Komponente;

Z - der Wert dieses komplexen Indikators.

Um die Dynamik der Struktur eines komplexen Wirtschaftsindikators zu bewerten, wird eine horizontale Methode verwendet, auf deren Grundlage die absoluten und relativen Änderungen in jeder Komponente bestimmt werden:

∆Di \u003d Di 1 - Di 0;T pr (Di) \u003d ∆Di: Di ​​​​0 x 100%.

Die vertikale Analyse des Buchwerts der Organisation ermöglicht es Ihnen, die Qualität der Nutzung einer bestimmten Art von Ressource in der Wirtschaftstätigkeit zu bestimmen und eine vergleichende Analyse der Organisation unter Berücksichtigung von Branchenspezifika und anderen Merkmalen durchzuführen. Relative Indikatoren vom Typ Di sind im Gegensatz zu absoluten Indikatoren bequemer bei der Analyse der Aktivitäten einer Organisation im Hinblick auf die Inflation und ermöglichen eine objektive Bewertung von Änderungen der Komponenten in der Dynamik.

Methode der Trendanalyse- basierend auf der Verwendung von Datenreihen der Dynamik der untersuchten Faktoren, zum Beispiel der Bilanz, der Vermögens- und Schuldenstruktur der Organisation. Verwendungszweck diese Methode ermöglicht es Ihnen, die Hauptentwicklungsrichtungen der Organisation sowohl zum jetzigen Zeitpunkt als auch in späteren Perioden zu beurteilen.

Für jeden Hauptindikator, der die Aktivitäten der Organisation charakterisiert, werden Änderungen der Wachstumsraten, durchschnittliche Wachstumsraten für die betrachteten Zeiträume (Monat, Quartal, Halbjahr, Jahr) analysiert und die Hauptrichtungen der Änderung dieser Indikatoren identifiziert. Die Ergebnisse der Berechnung der Durchschnittswerte der Wachstumsrate (Wachstumsrate) unter Berücksichtigung der Verbindungen zwischen den Hauptindikatoren ermöglichen es uns, den Prognosewert des untersuchten Indikators für die Zukunft zu berechnen. Eine auf Trendmodellen basierende Prognose ermöglicht es mit einem gewissen Grad an Zuverlässigkeit, den Wert des prognostizierten Faktors zu berechnen, die rationalsten Managemententscheidungen auszuwählen und die Folgen dieser Entscheidungen für die finanziellen und wirtschaftlichen Aktivitäten der Organisation zu bewerten.