Programmierung (Anwendungsentwicklung)

Wir programmieren Analysen und Anwendungen vorrangig mit SAS und Python, ggf. mittels SPSS Syntax. Programme sind typisch für Analytics-as-a-Service (AaaS). Zufällige Beispiele sind:

  • 2024: Do not do the Dont’s
    Programmierungen operieren mit Daten; Daten repräsentieren die wirtschaftliche Realität eines Unternehmens. Was kann bei fehlerhaften Programmierungen passieren? Am meisten, werden diese Fehler erst gar nicht bemerkt. Während einer Migration von fehlerhaft programmiertem Code stiessen wir auf jahrelang unentdeckt gebliebene Fehler, die vordergründig „nur“ technischer Natur waren, aber harte wirtschaftliche Konsequenzen hatten: 
  • Datenranges waren hart kodiert. Anstelle dynamisch rollierend immer die Verkäufe der letzten 12 Quartale aufzuaddieren, wurden daraus im Laufe der Zeit, 14, 15 16 usw. Quartale mit augenscheinlich immer positiver und zu mehr Optimismus verleitenden Verkaufszahlen. Bis sich im Mgmt irgendwann eine gesunde Skepsis einschlich und wir gebeten wurden, diesen ETL-Spuk zu prüfen und idealerweise ein Ende zu setzen.
  • Ausprägungen von Primary Keys wurden abgeschnitten, Tabellen in der Folge nicht korrekt gejoined. Aggregierende Analysen waren nicht korrekt, weil Daten nicht korrekt übernommen worden waren. Das Mgmt wurde falsch informiert; Entscheidungen waren nicht korrekt. Placeholder („1,2,3“) wurden schnell, aber in einer fehlerhaften Abfolge gesetzt. Die auf ihrer Grundlage berechneten Aggregierungen waren nicht korrekt. Die ans Mgmt gelieferten und die getroffenen Entscheidungen waren nicht korrekt.
  • Daten von MA wurden auf Team-Ebene dedupliziert. Was z.B. für 1:1 Merges durchaus von Vorteil sein kann. Was kann das aber fachlich bedeuten? Wenn z.B. mehrere MA eines Teams an einer Quote arbeiteten, wurde davon nur ein MA „behalten“. Was ist daran das Problem? Es ist sogar ein doppeltes:  Wenn mehrere MA eines Teams zu einer Quote beitrugen, ist die Vorgabe, dass alle beteiligten MA profitieren sollen. Logisch. Was trat aber aufgrund der Deduplizierung tatsächlich ein? (1) Alle involvierten MA (bei der einen Ausnahme) gingen leer aus; sie wurden unfair negativ diskriminiert. (2) Es wurde derjenige behalten, der alphabetisch am höchsten war, dieser MA wurde angesichts seines vorteilhaften Namens unfair positiv diskriminiert: Häufiger (wegen des Alphabets) und prozentual mehr (da die Kommission nicht geteilt wurde). Die interne Abrechnung und die ausgezahlten Kommissionen waren seit Jahren nicht korrekt. Sollten Sie den Verdacht haben, dass Ihre unternehmensinterne Abrechnung nicht sauber ist, wenden Sie sich vertrauensvoll an uns …
  • 2018: Migration
    Migration einer fehlerhaften proprietären Excel-Anwendung in ein hochleistungsfähiges SAS-Makro. Replikation von Prozessen und Berechnungen von Analysen in Excel mittels SAS Code und Makros. Die durch die neue Anwendung replizierten Ergebnisse wurden extern verifiziert und waren ausnahmslos korrekt. Trotz eines deutlich höheren Funktionsumfangs (u.a. weitere Berichte und implementierte Funktionalitäten wie spezielle Berechnungen inkl. Fälligkeit, Vormonats-Deltas etc., sowie automatische kanalspezifische Verteilung der Berichte) verringerte sich die ursprüngliche Verarbeitungszeit von 9 Stunden (kein Scherz!) auf 12 Minuten.
  • 2015-2016: Reverse-Engineering
    Überführung eines nonperformanten, buggy und manuell betriebenen non-SAS Programms in ein performantes, fehlerfreies und automatisch getriggertes SAS Programm bei einer großen Versicherung. Angesichts der kritischen Situation erfolgte die SAS Programmierung gemäß SOP BIO5, und ihre Validierung gemäß SOP BIO6. Zur Veranschaulichung: Der Umfang des Konvoluts des weitgehend unkommentierten, d.h. nicht dokumentierten original non-SAS Programms betrug ca. 300 DIN A4 Seiten.
  • 2013: Statistical Programming
    Programmierung der komplexen Hochrechnung des Zensus 2011. Anpassung der Zellen an hochgerechnete Ränder für 1.440 Gemeinden in 65 Modellvarianten. Visualisierung von insgesamt 93.600 Modellen und dem Mehrfachen an Goodness of Fit-Parametern. Ausführung als SAS Stored Process. Steuerung über ein intuitiv bedienbares „Cockpit“ mit wenigen „Schaltern“. Datenvolumen: 5,5+ Milliarden Datenzeilen(Hauptanwendung). Programmiersprachen: SAS Macro Facility, darin SAS Base, PROC IML, SAS Hash Programming, PROC SQL, sowie MEANS, TABULATE und GRAPH. Länge der beiden SAS Programme für die Hauptanwendung in DIN A4 Seiten: 60 (ETL: 40, Analyse: 20). Gerne weisen wir die Referenz vor.

Weitere Beispiele finden Sie unter Success Stories. Die wichtigsten Gründe auch unserer Kunden sind (vgl. auch Schendera, 2011, 2005):

    • Programme sind Grundlage maßgeschneiderter Analysen und Anwendungen.
    • Programme sind transparent und eine (technische) Vorstufe einer Dokumentation.
    • Programme sind i.A. leistungsfähiger als Point-und-Click Analysen.
    • Programme ermöglichen wiederholte Analysen zu minimalem Mehraufwand.
    • Programme können für die verschiedensten Zwecke entwickelt werden, u.a. Management, Cleansing und Analyse von Daten.
    • Auftraggeber können validierte/getestete Programme in den eigenen Betrieb übernehmen und dort aufrufen lassen, z.B. von eigenen Mitarbeitern, automatisch als Makro, als Stored Process, oder über Anwendungen wie z.B. EG, DI, oder UC4.
    • Programme können auf Wunsch um weitere Funktionalitäten erweitert und in spezielle Umgebungen (Report-Ausgaben, Dashboards oder Portale) integriert werden.

Je nach Verhältnis von Analyse (Statistics, Business) und Programmierung, der Komplexität der Analyse (und erforderlichem Know-How), der Systemumgebung, in der die Daten abgelegt sind, und des gewünschten Produkts wird diese Rolle bezeichnet als: Statistical Analyst, Business Analyst Using SAS, Statistical Programmer, oder auch Application Developer. Die Übergänge sind fließend.

Analyse kann als Anforderung u.a. Programmierung mit umfassen:

  • Schnittstellen u.a. für den Datenzugriff (PC Dateien, DWH Tabellen, etc.), z.B. csv/txt, ACCESS, EXCEL, Filemaker, ORACLE, SAS, SPSS, Teradata, etc.
  • ETL Prozesse (ETL: Extraktion, Transformation, Laden). ETL führt verteilte Daten in einer Analyse zusammen. Beispiele mächtiger ETL Prozesse finden Sie u.a. unter Success Stories.
  • Datenqualität: Daten regelmäßigen Quality Checks unterziehen, u.a. auf Aktualität, Konsistenz, Vollständigkeit, oder andere Kriterien.
  • Performanz: Die Verarbeitung ist vorteilhaft für u.a. Speicherplatz, I/O und CPU programmiert (vgl. Schendera, 2012).

SAS Expertise:
SAS ist die weltgrösste Analytics Firma in privater Hand. SAS war sogar bei der Mondlandung involviert.

  • SAS Anwendungen / Front-Ends: SAS Viya, SAS 9.4, SAS Studio, SAS Cloud Analytic Services (CAS), Enterprise Miner, Enterprise Guide, JMP, DI Studio, SAS BI Dashboards, SAS Information Delivery Portal, Time Series Forecasting System, SAS Information Map Studio, SAS Display Manager, ODS, Insight etc.
  • SAS Sprachen: SAS Base, SQL, FedSQL, Macro Facility, Output Delivery System, PROC IML, STAT/GRAPH, DS2, SAS Annotate, Hash Programming etc.
  • SAS Module: Annähernd alle Prozeduren zu Statistik, Datenmanagement und Visualisierung, darüber hinaus zahlreiche Prozeduren und Funktionen aus SAS9.4 zurück bis SAS 6.08. Zum Beispiel: ETS, FSP, GRAPH, INSIGHT, IML, LAB, OR, QC, STAT.

Python Libraries und Module:
Spyder (Anaconda), Pandas, SciPy, Numpy, Plotly (GO, Express), Matplotlib, Seaborn, Scikit-Learn, Tensorflow, Pytorch, Jupyter etc.

Weitere Anwendungen und Sprachen: z.B.  SPSS Statistics, SPSS Modeller, Power BI, Google BigQuery, KNIME, R, RKWard, R Commander, HTML.

Die Programmierung von Analysen oder Anwendungen kann erfolgen mittels: Pflichtenheft (Fachspezifikation), Zuruf, oder im Dialog.

Für weitere Anforderungen stehen wir gerne zur Verfügung.

Angebot
Kontakt
Method Consult Switzerland Dr. Schendera

Vorrütiweg 5
CH-6052 Hergiswil
Switzerland

Rufnummer

+41-78-4null68eins53

Banking / Controlling
    • Implementierung von Kreditrisikomodellen, z.B. Dutch Mortgage LGD, CPF PD, LGD, und EAD (IPRE)
    • Requirements-Engineering und SAS Programmierung bei einem grossen Sparkassen-nahen Dienstleister
    • Implementierung eines Management-Berichtssystems gemäss BCBS-239 Standards
    • ICS Projekt („Integrated Consumer Services“) bei einer großen spanischen Bank. Zentrale Bündelung, Abfrage und Analyse von Kundendaten für Marketingmaßnahmen und Kreditentscheidungen. Im Rahmen von Basel II Audits u.a. Integration von tägl. Daten-Updates in einen bis dato monatl. aktualisierten Datenbestand. Interims-Leitung.
    • Forderungsmanagement: SAS Reporting u.a. mittels Reverse Engineering einer Black Box Applikation

    • Business Analyse: Data Quality, Data Lineage, und Data Governance bei einer führenden Bank

    • Bericht monatlich anfallender Cash-Flow-Daten (Modellierung mit SAS/ETS, PROC COMPUTAB)

    • Budget-Analysen (monatliche Ist-Werte im Vergleich zu Soll- und Vorjahreswerten, Entwicklung von Templates mit SAS/ETS, PROC COMPUTAB)
    • Entwicklung, Implementierung und Validierung eines zentralen Kennzahlenmodells (Controlling)
    • Entwicklung diverser automatisierter KPI-Reports (z.B. mit SAS/ETS)
    • Ermittlung und Darstellung diverser Risk-Maße, z.B. CAPMß
    • Zeitreihenanalyse (ARIMA, Box-Jenkins) saisonaler Geschäftsdaten
    • etc.
Ökonometrie
    • Analysen im sozio-oekonomischen Panel (SOEP, Daten des DIW), u.a. Zeitreihenanalyse der Wellen A bis S (1984-2002)
    • Modellierung des jährlichen Haushaltsnettoeinkommens (Zeitraum: 20 Jahre)
    • Granger-Kausalitätstests für Zeitreihen der wirtschaftlichen Entwicklung der Qualität des Finanzsystems bzw. Wirtschaftswachstums ausgewählter Schwellenländer
    • Hedonische Preisindizes für Immobiliendaten (Hedonische Regression)
    • Rückschlüsse von Rechnungslegungsstandards auf Informationen zum Unternehmenswert (Evaluation des Ohlson-Modells)
    • Analysen der Bedeutung besonderer Dienstleistungssektoren
      für die Arbeitsmarktentwicklung vor dem Hintergrund des ökologischen Wandels.
    • etc.
Insurance
    • Migration und Erweiterung einer kompletten Vertriebsplattform für die Steuerung des Aussendienstes nach SAS: Analytics-getriebenes Reporting, u.a. EBAS, KATE, Stornofrühwarnsystem
    • Ablösen einer instabilen Excel-Anwendung zur Erstellung von KPI-Reports (Laufzeit ca. 9h, z.T. mit Freezes) durch SAS (Laufzeit: 12min., ohne Freezes)
    • Tarifvergleich zweier fusionierter Versicherungen (BK, UKB)

    • Erstellung von Tabellen (Modelpoint- bzw. Rechnungsgrundlagendateien) mittels Datenbankabfragen nach Vorgabe der „Mathematik Kranken“ für die Weiterverarbeitung in PROPHET. Finden und Implementieren von Lösungen für spezielle Anforderungen, v.a. mittels SAS Macro Programmierungen.
    • etc.
 
Markt-, Medien- und Multimediaforschung
  • Einstellungs(un)abhängiges Verhalten von FACEBOOK Nutzern: Zusammenhang zwischen Persönlichkeitseigenschaften (u.a. Extraversion und Selbstdarstellungstendenz) und ihre Auswirkung auf die Nutzung von FACEBOOK.
  • Zentrale Bündelung, Abfrage und Analyse von Kundendaten für Marketingmaßnahmen und Kreditentscheidungen bei einer großen spanischen Bank (ICS Projekt).
  • Analysen zum langfristigen Schweizer TV-Konsum (u.a. nach Sendern, Sendungen, Genres, sowie Sprachregionen.
  • Panel-Analysen (Analyse von Quoten und Ausfällen)
  • Absatz- und Marketingrelevanz ausgewählter Interessenverbände (Ärzte, Apotheker) (Portfolio-/Wettbewerbsvorteilsanalyse)
  • Evaluation von Kundenbedürfnissen, Kaufkriterien, Begeisterungspotenzialen und Produktanforderungen für diverse Dienstleister
  • Evaluation von Fernseh-Sendungen/Formaten (u.a. über Organisation und Analyse von Gruppendiskussionen)
  • Mobile multimediale Informationssysteme in Museen – Eine Anforderungsanalyse aus Sicht der Museumsbesucher

  • Absatz- und Marketingrelevanz ausgewählter Interessenverbände (Portfolio-/Wettbewerbsvorteilsanalyse)
  • Typologie von Internet(nicht)nutzern nach ihrem Einkaufsverhalten
  • Evaluation diverser Produkte u.a. mittels Conjoint Measurement
  • Prozessbegleitende Evaluation der Hotline für schulische Netze am Landesmedienzentrum Baden-Württemberg
  • etc.
Tourismus
  • Expertenbefragung zum Thema „Natururlaub“ u.a. zu Reisemotiven, angebotenen Urlaubsthemen und dem Interesse seitens der Gäste
  • Internes Ranking verschiedener Hotels eines Gastronomieverbundes mit dem Ziel der kontinuierlichen Verbesserung
  • Restrospektive Analyse von Entscheidungen von Urlaubern: Profiling hins. Destinationen, Urlauber-Typ und Urlauber-Verhalten
  • Erhöhung der Attraktivität eines Resorts für Gäste und Touristen (Ist/Soll-Analyse)
  • Analyse von FRAPORT Daten auf Destinationen, Reiseaufkommen, Pünktlichkeit und u.a. Shopping Behavior der Reisenden
  • Analysen der Bedeutung besonderer Dienstleistungssektoren für die Arbeitsmarktentwicklung vor dem Hintergrund des ökologischen Wandels
  • Profile der Besucher der Stadt Heidelberg im Jahr 1999
  • etc.
Kunden
    • Kundensegmentierung in der Multi-Kanal Welt.
    • Analyse diverser Warenkörbe mit/ohne Promotionen
    • Modellierung von Warenkorbdaten einschl. Vorhersage
    • Triangulation von Perspektiven (Kunde, Arzt, Optiker)
    • Entwicklung eines Recommender-Systems (Pilot)
    • Absatz- und Marketingrelevanz ausgewählter Interessenverbände (Ärzte, Apotheker) (Portfolio-/Wettbewerbsvorteilsanalyse)
    • Customer Profiling z.B. anhand von CC Spending Behaviour oder Dunning Levels
    • Segmentierung, Clusterung und Regression von Kreditkarteninhabern (Konstruktion von Typen einschl. interne und externe Plausibilitätstests)
    • Typologie von Internet(nicht)nutzern nach ihrem Einkaufsverhalten.
    • Projekt „Naked Truth“: Was sagen Kunden wirklich über Produkte?
    • Evaluation von Kundenbedürfnissen, Kaufkriterien, Begeisterungspotenzialen und Produktanforderungen für diverse Dienstleister.
    • Fraud: Rechtzeitiges Einfangen „schwarzer Schafe“
    • Entwicklung eines „Statistical Twin“ Ansatzes zur Neukundengewinnung
    • Explorative Verlaufsbeschreibung und Prognose diverser Absatztrends (vorwiegend exponentielle Glättungsverfahren)
    • etc.
Services
    • Abgleich des Angebot einer Freizeitseinrichtung mit der konkreten Kundenzufriedenheit
    • zahlreiche Mitarbeiterbefragungen: z.B. Zufriedenheit in Traineeprogrammen, Arbeitssicherheit usw.
    • Conjoint-Analyse eines Vorteilsprogramms.
    • Proof of Concept (Vergleich und Evaluation von Softwareherstellern für Datenanalyse).
    • Evaluation diverser klinischer Programme.
    • Vereinbarkeit von Beruf und Familie. Wissenschaftliche Begleitung diverser Langzeitstudien.
    • Unterscheiden sich Wirtschaftsmediatoren in ihren Konzepten, Herangehensweisen, Idealen und ihrem Selbstverständnis voneinander?
    • etc.
Competition
    • Vergleich und Evaluation von Mitbewerbern im Business Intelligence Bereich (BO, Hyperion, IBM, SAS, SAP, uam.).
    • Sprachliche Formulierungseffekte auf Entscheidungsverhalten.
    • Wie reagiert der Consumer auf Markenshops bei Preisvergleichsdiensten (PVDs)?
    • Ermittlung dominanter Industrien inkl. aggregierender Kennzahlen.
    • Absatz- und Marketingrelevanz ausgewählter
    • Interessenverbände (Portfolio-/Wettbewerbsvorteilsanalyse)

    • Korrelate zur Entscheidung zur Expansion per Outsourcing (u.a. Stellenwert der Globalisierung, Länder- und Partner-Auswahl, Outsourcing- Strategie und -Struktur, Outsourcing-Steuerung und Kontrolle, Grenzen und Risiken).

    • etc.
Manufacturing und Engineering
    • Konzeption und Umsetzung eines Frühwarnsystems für suboptimale Produktionsdaten für einen führenden Hersteller von Geldautomaten.
    • Empirische und fachliche Analyse und Dokumentation u.a. der  Datenflüsse der Produktionslinien gemäß ISA-95 Standards von den Sensoren bis hin zu MES und FabEagle.
    • Optimierung von Anlagen für eine Versuchsanstalt (Berlin).
    • Peak-Analysen (Cleansing von Daten um Anomalien in Radio-Signalen).
    • Event Forensics: Analyse von Prozessen, Ausstattung und Produkten mittels statistischen Methoden, u.a. Ansätzen wie SPC, 6Sigma, Data Mining, und Visual Analytics.
    • Bestimmung der optimalen Versuchsanlage i.S.e. physikalischen Entwurfs bzw. Produktdesigns.
    • Nutzen und Effizienz von CAD Programmen (Studie bei der Fa. autodesk, Hersteller der CAD Software AutoCAD und der 3D Software 3D Studio MAX).
    • etc.
FMCG

Machbarkeit / Feasibility

  • Analyse einer Oster-Promotion: Auswertung der Beliebtheit unterschiedlicher Osterhasentypen (Größe,Verpackungseinheit, mit/ohne rotem Bändchen) bzgl. Menge und Warenwert.
  • Korrelate zur Entscheidung zur Expansion per Outsourcing (u.a. Stellenwert der Globalisierung, Länder- und Partner-Auswahl, Outsourcing-Strategie und -Struktur, Outsourcing-Steuerung und Kontrolle, Grenzen und Risiken).
  • etc.

Markteinführung / Market Entry

  • Diverse Evaluation von Kundenbedürfnissen, Produkt-/Kaufkriterien, Begeisterungspotenzialen und Produktanforderungen für diverse Hersteller und Dienstleister.
  • Preissensitivität und Kaufverhalten von TransFair Kaffee Käufern.
  • Einkaufsverhalten und Servicequalität in GALERIA KAUFHOF im Vergleich mit Mitbewerbern (u.a. Karstadt, Sinn Leffers etc.)
  • etc.

Sonstige Techniken

  • Evaluation diverser Produkte u.a. mittels Conjoint Measurement.
  • Modellierung von monatl. Warenkorbdaten (inkl. Vorhersage, Residuenanalyse)
  • Explorative Verlaufsbeschreibung und Prognose diverser Absatztrends (vorwiegend exponentielle Glättungsverfahren)
  • etc.
SMCG

Machbarkeit / Feasibility

  • Markteinführung von Medizintechnologie (Präparat): U.a. welcher zeitlicher Vorsprung entstand durch die Markteinführung, welcher Rückstand bestand zum Innovator etc.
  • Anwendungspraxis von Medizintechnologie im Vergleich zwischen verschiedenen Herstellern.
  • Machbarkeitsstudie zur Erweiterung eines Geschäftsportfolios um BI Kurse (SAS, SPSS) inkl. SWOT-Analysen.
  • etc.

Markteinführung / Market Entry

  • Netzwerkeffekte im Markt für Videospielkonsolen – Eine ökonomische Analyse aus Anbieter- und Nachfragersicht
  • Inhaltsanalyse der interaktiven Mittel von Mobilfunkanbietern.
  • Mehrdimensionale Marktanalyse von Pkw
  • Evaluation des Preises eines neuen Medikaments.
  • Nutzen und Effizienz von CAD Programmen.
  • Komparative Langzeitanalyse der Frakturfestigkeit verschiedener Kronenmaterialien (Zahnmedizin).
  • Hedonische Preisindizes für Immobiliendaten (Hedonische Regression).
  • Diverse Vergleiche von Software für Datenanalyse (u.a. SAS, SPSS, KXEN).
  • etc.

Sonstige Techniken

  • Segmentierung, Clusterung und Regression von Kreditkarteninhabern (Konstruktion von Typen einschl. interne und externe Plausibilitätstests).
  • Forecasting von Abverkaufszahlen und Vertragsverlängerungen bei Handys mit/ohne Headsets.
  • Mediale Trends: Radio, Handy und Out-of-Home Media Usage.
  • etc.
Transport und Logistik
  • 360° Feedback zur Evaluation der Effizienz der Bestellprozesse bei einem grossen Transportunternehmen
  • Entwicklung eines Cash Order Systems zur Reduzierung der Kosten für Hartgeldtransporte

  • Planung optimaler Routen
  • Verspätungsanalyse (Dauer, Ursachen, Strecken)
  • Flugplananalysen (Carrier, Stops, Dauern)
  • Analyse der Passagiere (Ticketing, Seating, Trends)
  • Analyse von Flughafen-Daten auf Destinationen, Reiseaufkommen, Pünktlichkeit und u.a. Walking Behavior der Reisenden
  • Belastung von Lkw-Fahrern
  • etc.
Telco
  • Forecasting von Abverkaufszahlen und Vertragsverlängerungen bei Handys mit/ohne Headsets
  • Inhaltsanalyse der interaktiven Mittel von Mobilfunkanbietern
  • Mediale Trends: Radio, Handy und Out-of-Home Media Usage
  • Analyse der Qualität von Signaldaten: Entwicklung eines automatischen Ausreißer-Identifizierungssystems.
  • etc.
Psychologie

ABO

    • Die Bedeutung kognitiver Anforderungen im Stressgeschehen
    • Stressbezogene Arbeitsanalyse
    • Langzeitanalyse von Therapeut-Klient-Interaktionen
    • Mehrdimensionale Analyse Therapeut-Klienten-Beziehungen
    • 360Grad Feedback (P&P vs. Online)
    • Durchführung einer Zufriedenheitsanalyse im Rahmen von (kaufmännischen, technischen etc.) Traineeprogrammes etc.

  • Entwicklung
    • Spontane Produktionen von Tiernamen bei 4-7jährigen Kindern
    • Zwillingsforschung
    • etc.
  • Differentielle
    • Deprivation und Zigarettenkonsum
    • Depression bei Transsexuellen
    • Belastung von Lkw-Fahrern
  • Gesundheit
    • Unterschiede in Persönlichkeit und Attributionsverhalten zwischen Religiösen und Nichtreligiösen
  • Sozial
    • Einflüsse von textuellen Formulierungen auf soziale Einstellungen von Lesern
  • KliPs
    • Analyse des Gesprächsverlaufs innerhalb von Paarbeziehungen (SASB)
    • Komorbidität und Behandlungsverlauf bei Frauen mit Bulimia nervosa
    • Vergleich mehrerer psychometrischer Testverfahren hinsichtlich ihrer Fähigkeit, die Wahrnehmungsfähigkeit von Kindern im Vorschulalter zu erfassen
    • Emotionale Offenheit – Prävalenz und Korrelate
  • Neuro
    • Kortikale Plasitizität durch distante taktile Koaktivierung – Stimulation und Reversibilität
    • etc.
Psychiatrie
    • Persönliche Altersbilder
    • Risikofaktoren zur Prognose einer Einweisung

    • Durch welche psychologischen Faktoren wird der subjektive Gesundheitszustand pflegender Angehöriger von Demenzerkrankten beeinflusst?
    • Veränderung von Persönlichkeitseigenschaften von Psychiatriepatienten während eines mehrjährigen Klinikaufenthaltes etc.
  •  
Alternative Medizin (Therapieforschung)
  • Evaluation der Effektivität von Massagetherapie (vgl. auch Veröffentlichungen)
  • Evaluation der Effektivität von u.a. Kinästhetik, Shiatsu oder auch Hatha-Yoga
  • Evaluation der Effektivität eines Selbsthilfeprogrammes für Neurodermitiker
  • Evaluation der RRASCH-Studie (RR Absenken, Selbstmessung Contra Hypertonie).
  • Effektivität eines bundesweiten Hypertonie-Behandlungs- und Schulungsprogrammes v.a bei Risikogruppen (Patienten mit Diabetestyp I/II und Hypertonie)
  • Evaluation eines multizentrischen Diabetes-Schulungsprogrammes (LINDA)
  • Evaluation eines multimodalen Reha-Programmes für Patienten mit chronischen Rückenschmerzen
  • etc.
Epidemiologie
  • Homöopathische Antiemetika bei Chemotherapie
  • Ernährungsfaktoren und Brustkrebsrisiko
  • Veränderungen des Immunsystems bei Mammakarzinom unter einer immunstimulierenden Therapie
  • Reanalyse der EVOS/EPOS-Daten (Europäische Rückenschmerzstudie)
  • etc.
Gesundheitsforschung / Health Studies
  • Evaluation einer AIDS-Präventionsveranstaltung
  • Analyse der Unterstützungsleistungen von Söhnen und Töchtern mit pflegebedürftigen Eltern
  • Einfluss von Ernährung und Freizeitverhalten auf die Entwicklung von Übergewicht und Adipositas bei Kindern im Grundschulalter
  • etc.
Pflegeforschung
  • Evaluation des Anwendungssystems PIK/HD (Version 4.0) zur DV-gestützten Pflegedokumentation
  • Evaluation der Belastung von Pflegekräften durch den Schichtdienst
  • Einfluss von sozialer Unterstützung und psychologischen Copingfaktoren auf die Entwicklung einer posttraumatischen Belastungsstörung bei KrankenpflegerInnen, die Opfer eines Patientenübergriffes geworden waren.
  • Evidence-based-Nursing
  • etc.
Augenheilkunde
  • Preemptive Analgesie bei ppV in ITN mit Ropivacain (Naropin) als parabulbäre Injektion
Krebsforschung und -therapie
  • Sigmakarzinom: Diagnostik, Operation und Langzeit-Überlebenszeiten
  • Überlebenszeiten und ihre Vorhersage bei Lungenkarzinom
  • Einfluss von klinischen, sozidemografischen und histologischen Merkmalen auf die Überlebenszeit von Patienten mit Blasenkarzinomen nach einer Operation
  • Schilddrüsenkarzinom und Lungenfibrose im Kindesalter
  • Lungenkarzinom: Überlebenszeiten bei inoperablen Pankreaskarzinom (Studienzeitraum: 10Jahre)
  • Evaluation der Effektivität von Markern in einer Mammakarzinomstudie
  • Evaluation der Sensitivität und Spezifität versch. Beurteiler in Bezug auf das Vorliegen benigner bzw. maligner Tumore
  • Einfluss verschiedener klinischer Merkmale auf die Überlebenszeit von Patienten mit einem Magenkarzinom nach einer Operation des Tumors
  • Ernährungsfaktoren und Brustkrebsrisiko
  • Unterschiede zwischen biliodigestiver Anastomose und endoskopischer  Stentimplantation als palliative Therapieformen bei Bauchspeicheldrüsenkrebs

  • Veränderungen des Immunsystems bei Mammakarzinom unter einer immunstimulierenden Therapie etc.

Diabetes, Schmerzforschung und anderes
  • Einfluss von Alter, Geschlecht, Medikationsdosis, Medikationsdauer und DRD3-Genotyp auf den Umstellungsgrund von Medikamenten
  • Analyse von klinischen und soziodemographischen Merkmalen bei Patienten zweier Schlafkliniken und deren Beziehung zur gestellten Diagnose
  • Einfluss von u.a. Alter, Geschlecht und Depressivität auf die Intensität und den mehrjährigen Verlauf von Rückenschmerzen
  • Analyse einer multizentrischen Langzeitstudie zu Rückenschmerz
  • Medizinische Faktoren bei (In)Fertilität (nicht)schwangerer Paare
  • Ätiologie subkortikaler arteriosklerotischer Enzephalopathie (SAE) (u.a. MRT, neuropsych. Testbatterie, Kipptisch, CO²-Test, Risikofaktoren)
  • Vergleich von Schlaganfallpatienten mit Kontrollgruppe im CO²-Test
  • Allgemeiner Befundvergleich asymptomatischer und symptomatischer Patienten
  • Immunophenotypische Beschreibung karotider Infektion: Entzündungszellen als Prädiktoren für ischemische Symptome (Schlaganfall)
  • Langzeitstudie zu Patienten mit Cystischer Fibrose (Meßwiederholungsdesign)
  • Cystische Fibrose: Psychosozioale Faktoren und Komorbidität
  • cross-lagged-Panelanalysen für die Wirkungsrichtung expansiver und introversiver Störungen
  • Entwicklung des intrakraniellen Volumens bei Kindern

  • Drittmittelprojekt „Comparison of the safety and efficacy of d-Sotalol and d,l-Sotalol in patients with life-threatening VT/VF“, darin u.a. Untersuchung der Lebensqualität als ein Zielkriterium der Behandlung von Patienten mit lebenesbedrohlichen Herzrhythmusstörungen
  • Krankheitskostenstudie Herzinsuffizienz etc.

Zahnmedizin
  • Frakturfestigkeit metallfreier Polymerkronen
  • Komparative Langzeitanalyse der Frakturfestigkeit verschiedener Kronenmaterialien
  • Komparative Haftfestigkeitsanalysen in der Zahnmedizin
Medizintechnologie (Methoden)
  • Vergleich Szinti vs. Atemtest
  • Vergleich von Objektträgerfärbungen
  • Vergleich von ph-Konzentrationen (Plasmaanalysen)
  • Sensitivität und Spezifität versch. diagnostischer Tests und Instrumente
  • Langzeitergebnisse nach transurethraler Mikrowellen-Thermotherapie bei Hochrisikopatienten mit benigner Prostatahyperplasie unter Anwendung des T3-TARGIS-Systems, Urologix
  • Ein multimethodaler Vergleich histopathologischer Veränderungen arteriosklerotischer Eversionszylinder der A.carotis int. bei (a)symptomatischen Patienten
  • post-OP Schmerzmittelversorgung nach Hüftoperationen
  • Versorgung unfallbedingter künstlicher Hüften bei älteren Patienten
  • Vergleich der Nachweisfähigkeit von Knochenmarkern und PTH-Tests an Dialysepatienten
  • Analyse der Attribute eines innovativen Produktes im Rahmen der Diabetiker-Versorgung
  • Nachweisfähigkeit des Knochenstoffwechselumsatzes durch Abbaumarker an prä- und postmenopausalen Frauen
  • Prognostische Validität von Diagnosearten zur Steigerung der Überlebensrate bei Knochenmarktransplantationen
  • Einsatz von Informations- und Kommunikationstechnologien in der medizinischen Fortbildung
  • Evaluation des Verschreibens und der Anwendung ausgewählter Pharmazeutika in der medizintechnologischen Praxis etc.
Medizinpsychologie und Reha
  • Einfluss des sozialen Netzwerkes auf dropout/Verbleibrate in Behandlungen von Alkoholikern (Suchtforschung)
  • Effekt der Angehörigen auf die Behandlung von Alkoholikern (Angehörigenforschung)
  • Strukturgleichungsmodelle für den Langzeitzusammenhang zwischen Psychopathologie und Funktionsniveau
  • Patientenzufriedenheit mit der post-OP Schmerzmittelversorgung
  • Einfluss der Lebensqualität bei Patienten mit lebensbedrohlichen Herzrhythmusstörungen
  • Psychologische Faktoren bei Infertilität
  • Evaluation eines Reha-Programmes (Prä/Post-Messung)
  • Effektivität von osteopathischer Behandlung bei Kindern mit Angststörungen
  • Einstellung zu und Wissen über den Entstehenszusammenhang von Rheuma etc.
Schule, Bildung und Pädagogik
  • Organisationsstruktur der Frühförderstellen in Sachsen-Anhalt
  • Entwicklung der Erwerbssituation behinderter Menschen in Deutschland und ihre Untersuchung
  • Lehr-Lern-Prozesse innerhalb hypertextbasierten Lernumgebungen
  • Differenzierung von Zielorientierung und Bezugsnormorientierung bei Schülern der Mittel- und Oberstufe
  • Schulische Situation von geistig behinderten Menschen mit schwerem selbstverletzenden Verhalten in Baden-Württemberg (Re-Analyse)
  • Multi-perspektivische Evaluation der schulischen Bildungs- und Erziehungsrealität von Kindern und Jugendlichen mit schwersten Behinderungen im Spannungsfeld zwischen Theorie und Praxis.
  • wissenschaftliche Begleitung eines Projekts zur Wirksamkeit des Mercator-Förderunterrichts

  • Evaluation des Training des artikulatorischen Sprechvermögens von geistig behinderten Kindern mit dem IBM-SprechSpiegel III
  • Evaluation der Familienmediation in der institutionellen Beratung
  • Unterscheiden sich Wirtschaftsmediatoren in ihren Konzepten, Herangehensweisen, Idealen und ihrem Selbstverständnis voneinander?
  • etc.
Sport und Sportwissenschaft
  • Erfolgsfaktoren im Tennis-Hochleistungssport
  • Analysen der Korrelate von ATP/WTO Positionen im Tennis
  • Integrationsmöglichkeit des Besuchs von Fitness-Centers in Alltag und Beruf von Armeeangehörigen
  • Kriterien für Fitness-Branche und Sportparks
  • Abgleich (Evaluation) des Angebotsportfolios einer Freizeitseinrichtung (Rhein-Neackar-Kreis) mit der konkreten Beurteilung durch die Kunden
  • Effekte von Bewegung und Sport auf Diabetes
Tier-/Veterinärmedizin
  • Einfluss von Insulin-like-growth-factor (IGF) auf die Entwicklung von Follikeln
  • Veränderung der Lungenfunktion von Pferden während und nach einer Operation
  • Intravenöse Gabe von BNP bei Operationen unter Einsatz einer Herz-Lungen-Maschine bei Schweinen etc.
Ökologie und Biologie
  • Studien zu Bienenvölkern, u.a. Betriebsweise unter Varroa-Bedingungen
  • Intravenöse Gabe von BNP und therapeutische Wirkung (Schweine-Studien)
  • Analysen von Bodensee-Daten u.a. hinsichtlich Korrelationen von Jahreszeit, Wassertiefe, Temperatur und chemischer Zusammensetzung
  • Brutvogel-Monitoring Baden-Württemberg (Ständigkeits- und Verlaufsanalysen)
  • Schlüpfraten von Nordseekrebsen (z.B. A. hispida, A. debilis) in verschiedenen Habita
  • Habita und Nahrungssuchweisen des Dreizehenspechts, Schwarzwald (Standortanalysen)
  • uvam.
Kriminologie
    • Zeitreihenanalysen (1950-2000) zum Verlauf ausgewählter Gewaltstatistiken auf der Basis von Daten des Bundeskriminalamts, der Polizeilichen Kriminalstatistik, und des Statistischen Bundesamts
    • Meta-Analyse der Dunkelziffer-Forschung

    • Entwicklung von Tätertypologien anhand ausgewählter Merkmale und Überprüfung auf prognostische Validität etc.
Methodologie/Methode
    • Modelle in Forschungsmethoden

    • Zeitreihenanalysen (1950-2000) zum Verlauf ausgewählter Gewaltstatistiken auf der Basis von Daten des Bundeskriminalamts, der Polizeilichen Kriminalstatistik, und des Statistischen Bundesamts

    • Entwicklung und Validierung diverser Forschungsinstrumente (u.a. SNF-Projekt: Fragebogen zur Erfassung der Partnerzentrierung bei Angehörigen von Personen mit Alkoholproblemen)
    • Evaluation eines webbasierten Interessentests für Abiturienten.
    • Methodisch-methodologische Aspekte des wissenschaftlichen Sexismus etc.
Psycho-/Textlinguistik
    • Co-Occurence-Analysen
    • Sprachliche Formulierungseffekte auf Entscheidungsverhalten
    • Verständlichkeit von Gesetzestexten
    • Implizite und explizite sprachliche Diskriminierung
    • Einfluss von Sprache, Kultur, Alter, Geschlecht und Status auf den Gebrauch von Personalpronomina in wissenschaftlichen Texten
    • Faktoren im Kulturvergleich: Muttersprache, Alter und Bildung und ihr Einfluss auf die (Re)Produktion von Geschichtsinhalten und sprachlichen Strukturen etc.
Management, Leadership und Training
    • Controlling in Gemeinderäten
    • „Evaluating the Federal Governments Leadership Development Programs“
    • Korrelate einer Führungsposition (z.B. Support).

    • Bildungsbedarfsanalyse für einen grossen Versicherer im Raum Köln

    • Führungskräfte und work-life-balance

    • Mitarbeiterfragungen aus zahlreichen Unternehmen v.a. zum Arbeitszufriedenheit (u.a. Arbeitsplatzbedingungen, Bezahlung, Kollegen und Vorgesetzten, Information und Kommunikation etc.), z.T. Vollbefragungen auch im Längssschnittverfahren
    • Einfluss von u.a. Geschlecht, Geschlechtsrollenorientierung und hierarchischer Position auf die Reaktion von Führungskräften auf Problemverhalten von Mitarbeitern

    • Qualitative Evaluation eines systemischen Trainings für Führungskräfte

    • Evaluation eines Assessmentcenters anhand der Konstrukt- und der prognostischen Validität

    • Zusämmenhange zwischen Unternehmenskennzahlen (ROA) und Merkmalen von CEOs bzw. Boards etc.
  •  
Enterprise Guide

Inhalt
Basisverfahren
Daten-Management
Deskriptive Statistik
Tabellenanalyse
Multivariate Verfahren
Zeitbezogene Verfahren

Steuerung
Maus

Dauer
Mind. 1 Einheit, auf Wunsch auch nach Absprache.

Buchung
Inhalte

Sie haben die Möglichkeit, sich aus den angegebenen Einheiten den Inhalt der Kurse auf Ihre Anforderungen vor Ort hin maßzuschneidern. Sie buchen also nur das, was Sie wirklich brauchen. Bei Fragen helfen wir Ihnen gerne weiter.

Teilnehmerzahl und Termine

Die Anzahl der Teilnehmer bestimmen Sie, ebenfalls die Termine der Kurse. Die jeweiligen Kurstermine können Sie frei festlegen, und somit auf Ihre Anforderungen vor Ort abstimmen.

Kursarten, Ort und Dauer

Die Kurse finden in der Regel bei Ihnen vor Ort als Inhouse-Training statt, sei es in Deutschland, Österreich oder in der Schweiz. Ihre Vorteile sind eingesparte Reise- und Übernachtungskosten und kürzere Abwesenheit vom Arbeitsplatz für Ihre MitarbeiterInnen, und ein effektiveres Lernen, weil es in der gewohnten (Rechner)Umgebung stattfindet. Ein Kurstag geht in der Regel von 10.00 bis 17.30. Anpassungen auf Anforderungen vor Ort gerne nach Absprache. Inhouse-Trainings sind möglich als Einzelkurse, Tageskurse, mehrtägige Kurse, oder mehrere Blöcke übers Jahr verteilt. Konditionen für Outhouse-, Crash- oder Wochenendkurse, wie auch Kurse für privat (Einzelpersonen oder Gruppen) gerne auf Anfrage.

Materialien

Alle Kursteilnehmer erhalten zu jedem Kurs umfangreiche Materialien, die im Kurspreis enthalten sind. Diese eigens entwickelten Unterlagen enthalten Einführungen in methodische Grundlagen, verständliche Erläuterungen, unzählige Beispiele (z.B. Codes, Graphiken, Fälle, Analysen, Outputs), Syntax, und kommentierte Ergebnisse bzw. erschöpfend zusammengestellte Voraussetzungen der jeweiligen Verfahren. Bei hoher Verständlichkeit und klarer Struktur sind die Skripte von methodischer Professionalität. Ein darauf aufbauendes Buch zur graphischen und statistischen Datenanalyse erschien Januar 2004 bei Oldenbourg (Umfang ca. 850 Seiten). Ein SAS Buch zu PROC SQL für Einsteiger erschien August 2011 bei Oldenbourg (Umfang ca. 400 Seiten). Ein SAS Buch zu PROC SQL für Fortgeschrittene (u.a. Makroprogrammierung, uvm.) wird voraussichtlich im November 2011 bei Oldenbourg erscheinen. Alle Kursteilnehmer erhalten eine Teilnahmebescheinigung, die die erworbenen Qualifikationen hervorhebt.

Buchung (An- und Abmeldung)

Unsere Kurse sind gut und gefragt. Wir bitten daher um rechtzeitige Buchung. Termine werden in der Reihe des Eingangs reserviert. Absagen sind grundsätzlich schriftlich vorzunehmen. Bei einem Rücktritt bis zwei Wochen vor Trainingsbeginn entstehen Ihnen keine Kosten. Bei späterer Absage bzw. Nichterscheinen ist die volle Teilnahmegebühr zu begleichen.

Preise und Rabatte

Die Kurskosten verstehen sich als eine Kombination aus Mindestbuchung und Staffelpreisen: Ein SAS Kurstag für 2 Personen kostet zusammen CHF 1050 zzgl. MWSt. ggf. zzgl. Reisespesen (u.U. ist eine Steuerbefreiung möglich). Jede weitere TeilnehmerIn zahlt reduzierte Kurskosten. Wenn Sie mehrere Kurse buchen, kommen wir Ihnen zusätzlich mit reduzierten Kursgebühren entgegen. Je mehr Teilnehmer Sie sind bzw. je mehr Kurse Sie buchen, desto geringer werden die Kosten der einzelnen Kosten. Für Universitäten, Fachhochschulen, und andere Einrichtungen der Länder gerne auch Abrechnung über Lehraufträge.

Sie haben noch Fragen? Wir stehen gerne zu Ihrer Verfügung.

SAS/ANALYST

Inhalt
Basisverfahren
Daten-Management
Deskriptive Statistik
Tabellenanalyse
Multivariate Verfahren
Zeitbezogene Verfahren

Steuerung
Maus

Dauer
Mind. 1 Einheit, auf Wunsch auch nach Absprache.

ASSIST

Inhalt
Basisverfahren
Daten-Management
Deskriptive Statistik
Tabellenanalyse
Multivariate Verfahren
Zeitbezogene Verfahren

Steuerung
Maus

Dauer
Mind. 1 Einheit, auf Wunsch auch nach Absprache.

SAS/INSIGHT

Inhalt
Basisverfahren
Daten-Management
Deskriptive Statistik
Tabellenanalyse
Multivariate Verfahren
Zeitbezogene Verfahren

Steuerung
Maus

Dauer
Mind. 1 Einheit, auf Wunsch auch nach Absprache.

Deskriptive Statistik

Inhalt
Die deskriptive Statistik ist das Fundament jeder professionellen Datenanalyse. Dieser Kurs ist inhaltlich auf das Kennenlernen und die Ermittlung, Darstellung und Interpretation der gebräuchlichsten Lage-, Streu-, und Formmaße ausgerichtet. Dieser Kurs führt Sie ein in die Grundbegriffe und Grundannahmen der deskriptiven Statistik (z.B. Grundgesamtheit/Stichprobe, Merkmal/Variable, Skalenniveaus, und Gütekriterien), Sinn und Grenzen der wichtigsten Kennziffern und ihre Anforderung mit den SAS Prozeduren UNIVARIATE, FREQ, MEANS, und TABULATE. Nach diesem Kurs können Sie für beliebige Datenverteilungen alle wichtigen Kenngrößen univariat bzw. gruppiert berechnen und interpretieren, wie auch oft begangene Irrtümer bei der Berechnung solcher Kenngrößen bereits im Ansatz erkennen und vermeiden.

Steuerung
Syntax

Dauer
1 Einheit

SAS/INSIGHT

Inhalt
Vorstellung der Grundformen. Programmierung (mehrdim.) Balkendiagramme (hoch, quer), Kreisdiagramme, Boxplots, Histogramme, PP Plots, Streu- und Liniendiagramme. Fortgeschrittene Graphiken: Karten, Portfolio-Diagramme, Bubble-Plots und Bevölkerungsbäume. Pareto-, Radar- und Regelkartendiagramme. Fortgeschrittene Programmierung, incl. ANNOTATE, und speziellen Optionen, Formaten, Makros uvam. Export von Graphiken und Karten. Dutzende von Beispielen.

Steuerung
Syntax

Dauer
2 Einheiten, auf Wunsch auch nach Absprache.

Einführung in die Inferenzstatistik (Grundlagen und Basisverfahren)

Inhalt
Dieser Kurs bietet zunächst eine Einführung in die Grundlagen der Inferenzstatistik (Sinn und Grenzen), in die Messtheorie und ihrer Axiome, die Bedeutung der Skalenniveaus (Messniveaus) und den Grundbegriffen der Operationalisierung. Die Theorie und das Schema des Hypothesentests wird vorgestellt (einschl. Fehler I. und II. Art), Fragerichtungen und Fußangeln beim Interpretieren von Signifikanzen. Mehrere Ansätze zur Bestimmung des Stichprobenumfangs (Fallzahlen) werden skizziert, wie auch die damit einhergehenden Probleme. Mehrere Verteilungen werden vorgestellt als Prüf- und Modellverteilungen (u.a. Binomial, Poisson, Normal, Chi², F). Wahrscheinlichkeiten werden ermittelt. Die Praxis des Hypothesentests wird an zahlreichen Punkt- und Intervallschätzungen demonstriert (z.B. Chi²-Test, U-Test, T-Test). Einführung in zahlreiche Verfahren für nichtparametrische und parametrische Punkt- und Intervallschätzer. Es werden u.a. die SAS Prozeduren FREQ, GLM, MEANS, NPAR1WAY, und TTEST eingesetzt. Zahlreiche Beispielanalysen.

Steuerung
Syntax

Dauer
1-2 Einheiten

Korrelation

Inhalt
Der Kurs „Korrelation“ führt ein in die bivariate Pearson Korrelation, ihre Berechnung und diverse Besonderheiten bei der Interpretation der ermittelten Koeffizienten. Dargestellt werden häufig vernachlässigte Voraussetzungen (u.a. Stichprobenmerkmale, Linearität, Kontinuität) und Probleme wie z.B. Scheinkorrelation, Effekte durch Drittvariablen und Alphafehler-Kumulierung (einschl. ihrer Lösung). Als besondere Anwendungen werden der direkte Vergleich von Koeffizienten, der gruppenweise Vergleich von Korrelationen und die lineare kanonische Korrelation vorgestellt. Die Überprüfung der zahlreichen Voraussetzungen wird an Beispielen geübt.

Steuerung
Syntax

Dauer
½ -1 Einheit

Tabellenanalyse

Inhalt
Analyse von uni- bis mehrdimensionalen Tabellen für alle bekannten Tabellenstrukturen, von unabhängigen bzw. verbundenen Variablen bis hin zu prospektiven bzw. retrospektiven Analysen (u.a. Binomial-, Chi², und CMH-Tests, Odds Ratio, Risikomaße, Sensitivität/Spezifität, und alle möglichen Maße der Kontingenz, Assoziation bzw. des Zusammenhangs).

Steuerung
Syntax

Dauer
1 Einheit

Vergleichende Statistik: Ko-/Varianzanalysen

Inhalt
Dieser Kurs führt ein in Vergleiche zwischen zwei oder mehr unabhängige oder auch verbundene (abhängige) Gruppen mit den SAS Prozeduren ANOVA, GLM, NPAR1WAY, und NESTED. Vorgestellt werden z.B. T-Test, ANOVA, ein-/mehrfaktorielle Varianzanalyse ohne/mit Messwiederholung (Profilanalyse), Kovarianzanalyse Kontraste, und post hoc-Tests. Anforderung, Interpretation und Erläuterung des Outputs. Zahlreiche Beispielanalysen. Zahlreiche Voraussetzungen des jew. Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

Steuerung
Syntax

Dauer
1 Einheit

Klassierende und modellierende Statistik: Cluster-, Pfad-, Hauptkomponenten-, und Faktorenanalysen

Inhalt
Verständliche Einführung in die Berechnung einer Faktorenanalyse (PROC FACTOR), der Pfadanalyse (PROC CALIS, RAM-Option). Berechnung einer iterativen Hauptfaktorenanalyse, ausführliche Erläuterung des Vorgehens (Extraktion, Rotation) bzw. des Outputs. Einführung in die Grundidee und die Listenschreibweise der RAM-Option in CALIS zur Berechnung und Interpretation einer Pfadanalyse. Verständliche Einführung in die Berechnung einer Hauptkomponenten- (PROC PRINCOMP) und der Clusteranalyse (FASTCLUS und CLUSTER). Mit Beispielanalysen.

Steuerung
Syntax

Dauer
2 Einheiten, auf Wunsch auch nach Absprache.

Zeitbezogene Statistik: Prognose, Zeitreihen-, und Survivalanalysen

Inhalt
Einführung in zeitbezogene Verfahren, die Ermittlung wichtigster Kennziffern und ihrer Interpretation anhand der SAS Prozeduren LIFETEST und FORECAST. Incl. zahlreicher Graphiken und Beispielanalysen.

Steuerung
Syntax

Dauer
1 Einheit, auf Wunsch auch nach Absprache.

Regression (linear, nichtlinear)

Inhalt
Der Kurs „Regression“ stellt eine Einführung in eines der wahrscheinlich am meisten unterschätzten Verfahren zur Analyse von gerichteten linearen Zusammenhängen vor. Vorgestellt werden u.a. die einfache lineare Regression, die Linearisierung nichtlinearer Funktionen, die einfache nichtlineare Regression und die multiple lineare Regression. Direkte und schrittweise Methoden. Graphische Voraussetzungstests. Anforderung. Interpretation und Erläuterung des Output (u.a. R², ANOVA, Koeffizienten). Identifikation, Bewertung und Ausschluss von Ausreißern (Residuen, einflussreiche Werte). Kriterien für die Wahl zwischen verschiedenen Modellgleichungen. Zahlreiche Voraussetzungen (Linearität, Normalität, Varianzengleichheit) des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt. Bei der multiplen Regression werden Ansätze zur Identifikation von Autokorrelation und Multikollinearität und drei Ansätze zum Umgang mit Multikollinearität vorgestellt. Für nichtlineare Funktionen wird u.a. ein Ansatz der Linearisierung bzw. die Analyse mittels der nichtlinearen Regression vorgestellt.

Steuerung
Syntax

Dauer
1 Einheit

Logistische Regression

Inhalt
Dieser Kurs führt ein in die binäre logistische Regression (LOGISTIC) und Vergleich mit anderen Ansätzen. Modellspezifikation und Anforderung. Interpretation und Erläuterung des Output (u.a. Hosmer-Lemeshow-Test, Odds Ratio, Koeffizienten, Cutoff). Modellgüte vs. Prädikative Effizienz. Anforderung, Interpretation und Erläuterung des Outputs. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

Steuerung
Syntax

Dauer
½ -1 Einheit

Vertiefung:
Faktorenanalysen

Inhalt
Dieser Kurs führt in das Grundprinzip und Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) und ihre Funktion. Vorgestellt werden Kriterien zur Bestimmung, Interpretation und Benennung der Faktoren. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

Steuerung
Syntax

Dauer
½ -1 Einheit

Vertiefung: Clusteranalysen

Inhalt
Dieser Kurs führt ein in die Gruppe der Clusterverfahren. Vorgestellt werden hierarchische, partitionierende und TwoStep-Verfahren. Bei der hierarchischen Clusteranalyse (CLUSTER) lernen Sie die diversen Maße (z.B. quadrierte euklidische Distanz, Pearson-Korrelation, Chi²-Maß etc.) und Methoden (Density, Linkage, Ward etc.) einschl. ihrer Bias (z.B. Ausreißer, Chaining) kennen und lernen, Intervalldaten, Häufigkeiten und binäre Daten zu clustern bzw. Kategorialdaten und gemischte Daten zu kodieren, clustern und jeweils zu interpretieren. Die Clusterzentrenanalyse (k-means, FASTCLUS) lernen Sie als partitionierendes Verfahren kennen. Sie lernen Teststatistiken zur Bestimmung der optimalen Clusterzahl kennen (z.B. Eta², F-max; nicht im original SAS Leistungsumfang enthalten), wie auch die ausgewählte Clusterlösung auf Interpretierbarkeit, Stabilität und Validität zu prüfen. Darüber hinaus lernen Sie Kriterien für die Beurteilung einer guten Clusterlösung kennen, wie auch alternative grafische und logische Ansätze zur Clusterung von Daten. Für alle Verfahren wird die Überprüfung von Voraussetzungen, Anforderung, Rechenschritte, wie auch die Interpretation von Ergebnissen an Beispielen geübt.

Steuerung
Syntax

Dauer
2 Einheiten, auf Wunsch auch nach Absprache.

Daten-Management

Inhalt

In diesem Kurs lernen Sie zahlreiche Möglichkeiten, Tipps und Tricks kennen, Ihre Daten für grafische, deskriptive, oder statistische Analysen vorzubereiten und auf Plausibilität und Vollständigkeit zu überprüfen. Nur mit einer angemessene Aufbereitung bzw. Transformation können Daten oft erst ausgewertet werden.

Arbeit in der Programmierumgebung des Enhanced Program Editor in SAS 9.1.3. Daten-ManagementEinführung und Grundoperationen: Auf Daten über LIBNAME zugreifen, Rohdaten im Data-Schritt einlesen (Formate, Informate), und Speichern als permanenten oder temporären SAS Datensatz. eines Datensatzes über PROC PRINT, PROC REPORT (prompt), PROC CONTENTS und den Table Editor.

Einführung in das Datenmanagement mit Data-Schritt-Programmen:
und eines Datensatzes (Subsets) mittels u.a. DROP, KEEP, RETAIN und SORT.
auf der Variablen-Ebene: Ändern von Variablennamen (RENAME), (LABEL), alpha)numerische (FORMAT): Vergabe und Aufruf, Zaubern mit Zeichen: U.a. Sub- und in Variablennamen bzw. Überschriften, -Zeichen. Rekodieren von Variablenwerten und Wertebereichen in neue Klassifikationsvariablen (IF THEN – ELSE).

Berechnen neuer Werte und Variablen mittels SAS Funktionen (u.a. arithmetische Operationen, mathematische und statistische Funktionen, z.B. ABS, MEAN, SUM, usw.), Anwenden von Zeit- und Datumsfunktionen, Konvertieren von Variablentypen, (alphanumerisch → numerisch, numerisch → alphanumerisch). Kopieren, Rangordnen und STANDARD), Konvertieren von Werten oder auch Ersetzen von bestimmter Kodes durch Missings.

Professionelles Datenmanagement: Aufteilen von Datensätzen über Filter bzw. Bedingungen (Vergleichsoperatoren: WHERE, IF), (u.a. SET, MERGE, UPDATE, IN-Option), Umstrukturieren von Datensätzen („Aus 3 mach 1“ bzw. „Aus 1 mach 3“, u.a. mittels ARRAY, DO IF, IF.FIRST, OUTPUT).

Steuerung
Syntax

Dauer
2 Einheiten, auf Wunsch auch nach Absprache.

PROC SQL für Einsteiger

Inhalt
Ein kurzer Vergleich von PROC SQL mit dem DATA STEP. Grundoperationen mit PROC SQL. Queries: Verschachtelte bzw. genestete Abfragen (Tabellen): Bezugnahme auf einen Datensatz, Bezugnahme auf mehrere Datensätze. Arbeiten innerhalb einer Tabelle: Teilmengen bilden (numerisch, Strings, Platzhalter; Optionen WHERE, HAVING, DELETE), Strukturieren / Sortieren von Tabellen (ORDER BY, Positionshinweis), Formate/Informate: Label und In/Formate für Variablen und Werte, Bedingungen und Untergruppen, Ermitteln der Häufigkeit von Zeilen oder Werten (Zählwerte), Anlegen von (leeren) Tabellen und Datenzeilen (CREATE, INSERT/SET, ALTER TABLE), (Bedingtes) Aktualisieren bzw. Überschreiben von Werten (UPDATE). Arbeit mit mehreren Tabellen – Verknüpfen von Tabellen und Abfragen: „Untereinanderhängen“ von Datensätzen (SET Operatoren), Operatoren für das „Nebeneinanderstellen“ (Joinen) von Datensätzen. PROC SQL und Missings: PROC SQL und Variablentyp: Abfragen für Missings, Bedingungen (ALL/ANY/SOME, EXISTS, IN, IS, LIKE usw.), Besonderheiten bei Joins, Funktionen für die Aggregierung bzw. statistische Beschreibung (COUNT, MEAN, N usw.), Konvertieren von Missings (Makro-Beispiel). Datenqualität mit PROC SQL: Identifikation von Ausreißern (numerische Variablen), Überprüfen auf Missings, Überprüfen auf ungültige Zeichen (Variationen bei Strings), Auffinden von mehrfachen Werten (Doppelte). Makroprogrammierung mit SQL: Übergabe eines Wertes an Überschriften, Ausgabe von Werten in Log oder Output, Arbeit mit automatischen PROC SQL Makrovariablen. Tipps und Tricks. Zugriff auf SAS Bibliotheken (Dictionaries). Tipps für die Verbesserung der Performanz bei der Arbeit mit großen Datensätzen.

Steuerung
Syntax

Dauer
2 Einheiten.

Einführung in die Studienplanung

Inhalt
Dieser Kurs führt ein in die Forschungsmethoden und Statistik im Kontext der Planung, Analyse und Qualitätssicherung von Studien auch in großem Rahmen. Angefangen von der Planung einer Studie (u.a. Protokoll, Bias, Reichweite, Einschlusskriterien und Maskierungstechniken) über Überlegungen zum Aufbau (Design- und Testarten), Durchführung einer Studie (u.a. Arten des Monitoring) bis hin zu grundsätzlichen Überlegungen zu Datenanalyse und Qualitätssicherung (Daten, Ergebnisse).

Steuerung
Info

Dauer
Nach Absprache

Datenqualität mit SAS

Inhalt

In diesem Kurs lernen Sie zahlreiche Kriterien und Möglichkeiten kennen, die Qualität Ihrer Daten [DQ] zu überprüfen.

Einführung: Die „DQ Pyramide“.
Zielsetzung, Konzept und Grundlagen.

Vollständigkeit:
U.a. Kontrollieren Sie die Anzahl der Tabellen, die Anzahl der Zeilen (Beobachtungen), die Anzahl der Spalten (Variablen), und die Werte bzw. Missing Values.

Einheitlichkeit:
U.a. Vereinheitlichen Sie Strings, Symbole oder Sonderzeichen, Währungen und Messeinheiten, gemischte Zeichenketten (Telefonnummern), Datumsvariablen und –werte, und Interpunktion bzw. Nachkommastellen.

Doppelte Werte und mehrfache Datenzeilen:
Überprüfung auf Dubletten, Identifikation der Art und Anzahl von Doppelten, Entfernen doppelter Datenzeilen.
Anzeigen von gefilterten und doppelten Datenzeilen, Identifikation von Doppelten und Ausfiltern beim Einlesen von Datenzeilen (gruppierte bzw. genestete Daten).

Missings (Bedeutung, Kodierung, Rekonstruktion):
Ursachen, Folgen, Ausmaß und Muster. Welche Missings sollten nicht durch Werte ersetzt bzw. gelöscht werden?
Maßnahmen: Löschen von Missings: Paarweises vs. listenweises Löschen, komplett leere Zeilen: Technische Probleme als Ursache von Missings, Rekonstruktion von Missings (Logisches Vorgehen, Stereotypengeleitetes Vorgehen, Univariate Schätzung, Multivariate Ähnlichkeit (Hot deck-Imputation), Multivariate Schätzung (Missing Value Analysis, Rechnen mit Missings.

Ausreißer:
Merkmale von Ausreißern (die Perspektive entscheidet mit, „frames“). Univariat oder/und multivariat: Univariate Ausreißer (Identifikation über Maße, Regeln, Tests, Diagramme); multivariate Ausreißer (Identifikation über Maße, Besonderheiten bei (bivariaten) Messwertreihen, Identifikation über Diagramme). Ursachen und Umgehen mit Ausreißern.

Plausibilität: Formales und inhaltliches Vorgehen, Die praktische Überprüfung der Qualität von Daten (Qualität der Daten einer Variablen bzw. zweier Variablen).

Überprüfen mehrerer Variablen und Datensätze: Arbeitsgrundlage: Ein Datensatz: U.a. Screenings innerhalb einer Spalte (Variablen), Screenings innerhalb mehrerer Spalten (Variablen), Vergleich zwischen Spalten auf absolute Übereinstimmung, spalten- und zeilenweise Analyse mehrerer numerischer Daten, Rekodieren von Werten und Missings in mehreren Variablen, einheitliches „Auffüllen“ von mehreren Datenzeilen, Umbenennen zahlreicher Variablennamen (Präfixe, Suffixe).

Überprüfen mehrerer Variablen und Datensätze:e, Arbeitsgrundlage: Mehrere (separate) Datensätze: U.a. Prüfregeln zum Zusammenfügen, Das Überprüfen mehrerer Datensätze auf Vollständigkeit (Überprüfung fortlaufend gespeicherter Daten, Überprüfung segmentiert gespeicherter Daten), Vergleich von Datensätzen auf identische Inhalte, Vergleich von Datensätzen auf Missings, Identifizieren spezieller Werte auch in separaten Datensätzen, Aufteilen eines Datensatzes in einheitlich gefilterte Subdatensätze.

Zeit- bzw. datumsbezogene Probleme:
Einsichten durch Zeitdifferenzen, Überprüfung von Datumseingaben (Zahlendreher), Varianten zum Beheben des „Jahr 2000“-Problems (ISO 8601, Y2K), Zeitstempel, das Berechnen von Alter und anderes. 

Weitere Kriterien für die Datenqualität.

Steuerung
Syntax

Dauer
Nach Absprache

Kontakt

Mit diesem Formular können Sie uns per Email kontaktieren.Tragen Sie einfach Namen, Emailadresse, und Anliegen in die Felder ein, und schicken Sie Ihre Email über den „Abschicken“-Button ab.

Achten Sie bitte unbedingt auf eine korrekte Absenderadresse, ansonsten erreichen unsere Antworten Sie nicht. Bitte geben Sie auch ein aussagefähiges Betreff an. Wir rufen Sie gerne zurück.

Wir bearbeiten jede Anfrage an Arbeitstagen innerhalb 24 Stunden. Sollten Sie in dieser Zeit nichts von uns hören (dies kann diverse Ursachen haben: Spam- bzw. Vireneinstellungen, falsche Absenderadresse, usw.), rufen Sie bitte kurz an.

    SQL mit SAS: Band 2: Fortgeschrittenes PROC SQL

    Noch keine Downloads erhältlich

    Clusteranalyse mit SPSS: Mit Faktorenanalyse

    Downloads

    DateiBand.sav
    QuelleSPSS
    VerwendungKap. 1.2.3. (36ff.)
    DateiWorld95.sav
    QuelleSPSS
    VerwendungKap. 1.2.5. (48ff.), 1.2.9. (84ff.), 1.4.4. (136ff.), 1.5.1. (146ff.), 1.5.2. (148ff.)
    Dateinames.sav
    QuelleSPSS (World95.sav); modifiziert vom Verfasser.
    VerwendungKap.1.2.6. (69ff.), Kap.1.2.7. (75ff.)
    DateiClust_Var.sav
    QuelleCFG Schendera
    VerwendungKap. 1.2.8. (79ff.)
    DateiTwoStep.sav
    QuelleCFG Schendera
    VerwendungKap. 1.3.2. (98ff.)
    DateiCRM_data.sav
    QuelleCFG Schendera
    VerwendungKap. 1.4.2. (118ff.)
    Dateicar_sales.sav
    QuelleSPSS
    VerwendungKap. 1.5.5. (154ff.), 2.5.2. (231ff.)
    Dateitree_credit.sav
    QuelleSPSS
    VerwendungKap. 1.5.6. (165ff.)
    DateiBreast cancer survival.sav
    QuelleSPSS
    VerwendungKap. 1.5.8.. (172ff.)
    Dateibankloan_binning.sav
    QuelleSPSS
    VerwendungKap. 1.5.8. (172ff.)
    DateiHarman76.sav
    QuelleHarry H. Harman (19763, 14). „Modern Factor Analysis“.
    VerwendungKap. 2.5.1 (217ff.)
    DateiDünger.sav
    QuelleSPSS
    VerwendungKap. 2.5.3. (242ff), 2.5.4. (257ff), 2.5.7. (290ff)
    Dateianorectic.sav
    QuelleSPSS
    VerwendungKap. 2.5.6. (280ff.)
    Dateibackpain.sav
    QuelleSPSS
    VerwendungKap. 3.3. (308ff.)
    Dateialzheimer.sav
    QuelleSPSS
    VerwendungKap. 3.4. (336ff.)
    Regressionsanalyse mit SPSS

    Downloads

    Dateihip_weight.sav
    QuelleCFG Schendera
    VerwendungKap. 1.4.1. (8ff.), Kap. 1.4.2. (10ff.), Kap. 1.6. (19ff.), Kap. 2.1. (42ff.), Kap. 2.2.4. (Fall 1) (77ff.)
    DateiCanonical correlation.sps
    QuelleSPSS
    VerwendungKap. 1.8.3. (31ff.)
    DateiRidge Regression.sps
    QuelleSPSS
    VerwendungKap. 5.3. (385ff.)
    DateiCP53.sps
    QuelleChatterjee & Price, 1995², 53ff.
    VerwendungKap. 2.2.3. (74ff.)
    DateiFall2unbekannt.sav
    QuelleCFG Schendera
    VerwendungKap. 2.2.4. (Fall 2) (78ff.)
    DateiFall3unbekannt.sav
    QuelleCFG Schendera
    VerwendungKap. 2.2.4. (Fall 3) (86ff.)
    Dateinelson.sav
    QuelleNelson, Wayne (1981). Analysis of Performance-Degradation Data. IEEE Transactions on Reliability Vol. 2, R-30, No. 2, 149-155.(aufbereitet vom Autor)
    VerwendungKap. 2.2.5. (91ff.)
    DateiCP70.sav
    QuelleChatterjee & Price, 1995², 70ff.
    VerwendungKap. 2.3.2. (106ff.)
    DateiCP193.sav
    QuelleChatterjee & Price, 1995², 192ff.
    VerwendungKap. 2.3.3. (124ff.), Kap. 5.1.1. (353ff), Kap. 5.3. (378ff.)
    Dateibloodpressure.sav
    QuelleCFG Schendera
    VerwendungKap. 3.2.2. (148ff.)
    Dateilabordata.sav
    QuelleCFG Schendera
    VerwendungKap. 3.2.4. (161ff.)
    DateifemaleBMI.sav
    QuelleCFG Schendera
    VerwendungKap. 3.3.2. (179ff.)
    DateiBMIordinal.sav
    QuelleCFG Schendera
    VerwendungKap. 3.3.2. (189ff.)
    Dateitumordata.sav
    QuelleSPSS (Breast cancer survival.sav); modifiziert vom Verfasser
    VerwendungKap. 3.4.1. (201ff.)
    DateiSurvivalData.sav
    QuelleCFG Schendera
    VerwendungKap. 4.6.1. (252ff.), Kap. 4.6.4. (271ff.), Kap. 4.6.5. (273ff.), Kap. 4.6.6. (277ff.), Kap. 4.7.2. (290ff.), Kap. 4.7.3. (300ff.), Kap. 4.7.4. (304ff.)
    DateiSeen_Syntax.sps
    QuelleCFG Schendera
    VerwendungKap. 4.6.2. (259ff.), Kap. 4.6.3. (265ff.)
    DateiBrustkrebs_Survival.sav
    Quelle(Breast cancer survival.sav); modifiziert vom Verfasser
    VerwendungKap. 4.7.5. (308ff.) (I, II, III), Kap. 4.7.6. (324ff.), Kap. 4.7.7. (332ff.) (Varianten 1+2)
    DateiLearnData.sav
    QuelleCFG Schendera
    VerwendungKap. 5.2. (365ff.) (Ansätze 1-3)

    These sample files and code examples are provided by CFG Schendera c/o Method Consult „as is“ without warranty of any kind, either express or implied, including but not limited to the implied warranties of merchantability and fitness for a particular purpose. Recipients acknowledge and agree that CFG Schendera c/o Method Consult shall not be liable for any damages whatsoever arising out of their use of this material. In addition, CFG Schendera c/o Method Consult will provide no support for the materials contained herein.

    1640818-200

    Zu diesem Buch sind keine Downloads erhältlich.

    SQL mit SAS: Band 1: PROC SQL für Einsteiger

    Seitenanzahl

    395

    ISBN-13

    978-3486598407

    Erscheinungstermin

    18. Mai 2011

    SQL (Structured Query Language) ist die vermutlich am weitesten verbreitete Programmiersprache weltweit und gilt mittlerweile als Quasi-Industriestandard. Dieses Buch versteht sich als Übersicht und Einführung in SQL.

    Schritt für Schritt wird der Anwender von einfachen Beispielen (per Maus abgefragt oder mit SQL Syntax geschrieben), zu komplexen Arbeiten innerhalb einer oder mehr Tabellen einschließlich komplexerer Szenarios und Joins geführt.

    Fokuskapitel vertiefen besondere Themen der Arbeit mit SQL, z.B. die deskriptive Statistik, sowie Hilfen, Tipps und Tricks. Das Buch enthält außerdem Übungsaufgaben zu Daten erfolgreicher Kinofilme, wie auch ihre Lösung mit SQL.

    1 SQL (Structured Query Language)

    2 Erste Schritte mit PROC SQL

    2.1 Variationen eines Beispiels: Abläufe innerhalb einer Tabelle
    2.2 Von hier aus weiter: Beispiele für grundlegende SQL Anwendungen
    2.3 SQL per Mausklick mit dem SQL Query Window
    2.4 Unterschiede zwischen SAS Tabellen und SAS Views
    2.5 PROC SQL für SAS Base Programmierer
    2.5.1 Programmierbeispiele: SAS Base vs. PROC SQL
    2.5.2 Unterschiede in den Programmierkonventionen
    2.5.3 Performanz: „Es kommt darauf an“
    2.6 PROC SQL und der ANSI Standard

    3 Elemente der PROC SQL Syntax: Übersicht

    3.1 Ausdrücke (SQL, Tabelle, Query, Joins)
    3.2 SQL Syntax: Struktur und Übersicht
    3.3 Weitere SQL Ausdrücke, Bedingungen und Funktionen

    4 Queries: Verschachtelte bzw. genestete Abfragen (Tabellen)

    4.1 Bezugnahme auf eine Tabelle
    4.2 Bezugnahme auf mehrere Tabellen

    5 Arbeiten innerhalb einer Tabelle

    5.1 SQL Syntax in der Praxis
    5.2 Grundoperationen und Berechnungen (SELECT-Statement)
    5.3 Berechnungen und Aktualisierungen mit CASE und UPDATE
    5.4 Subqueries
    5.5 Self-Joins (Reflexive Join)
    5.6 Weitere Möglichkeiten der Arbeit mit einer Tabelle

    6 Arbeit mit zwei Tabellen: Verknüpfen von Tabellen

    6.1 „Untereinanderhängen“ von Tabellen (Set Operatoren)
    6.2 Operatoren für das „Nebeneinanderstellen“ (Joinen) von Tabellen
    6.3 Spezielle Joins (u.a. INNER, CROSS, NATURAL, UNION)
    6.4 Filtern mit Subqueries
    6.5 Weitere Möglichkeiten der Berechnung und Aktualisierung
    6.6 Fallstricke bei der Arbeit mit zwei Tabellen

    7 Arbeit mit zwei Tabellen (und mehr)

    7.1 One-to-Many (BY-Merge, interleaving)
    7.2 Many-to-One
    7.3 Many-to-Many
    7.4 Arbeiten mit drei und mehr Tabellen
    7.5 Prüfschritte und Hilfsmittel für die Arbeit mit zwei und mehr Tabellen

    8 Fokus: Deskriptive Statistik

    8.1 Statistische Grundlagen
    8.1.1 Lagemaße
    8.1.2 Streuungsmaße
    8.2 Berechnung von Lage- und Streuungsmaßen
    8.3 Weitere Aggregierungsfunktionen (COUNT, SUM usw.)
    8.4 Prozent- und Quotientwerte (SUM, COUNT)
    8.5 Rechnen mit Gewichtungen (SUM, CASE GROUP BY)

    9 Fokus: Hilfen, Tipps und Tricks

    9.1 Verstehen und Testen von SQL (FEEDBACK, VALIDATE)
    9.2 Optimieren von Joins (_METHOD, _TREE)
    9.3 Konvertieren, String-Funktionen etc.
    9.4 Designen der SQL Ausgabe
    9.5 Output Delivery System (ODS)
    9.6 Zugriff auf Microsoft Excel

    10 Übungsteil: Aufgaben und Lösungen

    10.1 Aufgaben, die nur eine Tabelle erfordern
    10.2 Aufgaben, die zwei Tabellen erfordern
    10.3 Lösungen

    11 Verwendete SAS Datasets

    11.1 SAS Datasets von SAS Institute
    11.2 SAS Datasets des Verfassers

    12 Literatur

     

    13 Ihre Meinung zu diesem Buch

     

    14 Autor

    Datenqualität mit SPSS

    Seitenanzahl

    489

    ISBN-13

    978-3486582147

    Erscheinungstermin

    1. Oktober 2007

    Datenqualität kommt vor Analysequalität. Dieses Buch stellt erstmalig im deutschsprachigen Raum die wichtigsten Kriterien für Datenqualität mit SPSS für Windows und Macintosh vor, u.a. Vollständigkeit, Einheitlichkeit, Doppelte, Missings, Ausreißer und Plausibilität. Die vorgestellten Lösungen basieren auf jahrelanger Erfahrung mit SPSS und sind auf Didaktik, Verständlichkeit und Qualität angelegt. Abschließend finden Sie diverse Empfehlungen für die Kommunikation von wissenschaftlichen Ergebnissen. Vermeiden Sie klassische Fehler wie z.B. „höchstsignifikant“.

    Dieses Buch ist für alle wichtig, die mit SPSS arbeiten und deren Ergebnisse von zuverlässigen Daten abhängen, z.B. Unternehmen, Hochschulen und Wissenschaftler.

    „Sehr informativ ist Kapitel 6, das sich mit fehlenden Daten (Missings) auseinandersetzt. Außer den diversen Ursache werden auch potentielle statistische Folgen wie Bias oder reduzierte Macht in diesem Kapitel besprochen. Besonders gelungen erscheint mir der anschließende Teil über die Mechanismen von Missings (Missing Completely at Random, Missing at Random, Not Missing at Random) und über die Möglichkeiten zur Rekonstruktion bzw. zum Ersetzen von Missings.“ (…) „Sehr interessant fand ich auch den Inhalt des letzten Kapitels, in dem man die wesentlichen Kriterien für die Kommunikation von Qualität hergeleitet findet. Dazu zählen vor allem auch Kriterien für die Qualität der Datenanalyse, die von der verwendeten statistischen Methodik abgeleitet werden müssen.“ (…) „Dieses Buch richtet sich an (…) die Gruppe der SPSS Anwender, (…) denen es ein selbstverständliches Anliegen ist, dabei natürlich auch auf die Qualität zu achten.&qout;

    – Austrian Journal of Statistics, Vol. 37 (2008) Nr. 2

    Regressionsanalyse mit SPSS

    Seitenanzahl

    482

    ISBN-13

    978-3486586923

    Erscheinungstermin

    18. August 2008

    Dieses Buch führt ein in die grundlegenden Ansätze: Korrelation, Regression (linear, multipel, nichtlinear), logistische und ordinale Regression, sowie die Überlebenszeitanalyse (Survivalanalyse). Bei allen Ansätzen werden Voraussetzungen und häufig begangene Fehler ausführlich erläutert. Das Buch ist für Mauslenker und Syntaxprogrammierung gleichermaßen geeignet. Das Buch wurde für SPSS Version 16 geschrieben. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation des SPSS Ausgaben systematisch durchgespielt. Es wird auch auf diverse Fehler und Fallstricke eingegangen. Zur Prüfung von Daten vor der Durchführung einer statistischen Analyse wird auf „Datenqualität mit SPSS“ (Schendera, 2007) verwiesen. Bei der Korrelationsanalyse werden z.B. die Voraussetzungen wie z.B. Skalenniveau, Homoskedastizität und Kontinuität erläutert. Weitere Abschnitte behandeln die Themen Linearität, Scheinkorrelation und Alphafehler-Kumulation. Auch wird erläutert, warum die bloße Angabe eines Korrelationskoeffizienten im Prinzip Unfug ist. Als spezielle Anwendungen werden der Vergleich von Korrelationskoeffizienten und die Kanonische Korrelation vorgestellt. Bei der Regressionsanalyse werden z.B. das Grundprinzip der klassischen bivariaten, linearen Regression vorgestellt: Eine lineare Funktion wird mittels einer linearen Regressionsanalyse untersucht. An einem einfachen Beispiel die Überprüfung der Linearität und Identifikation von Ausreißern anhand von Hebelwerten und Residuen erläutert. Auch wird das Überprüfen auf eine möglicherweise vorliegende Autokorrelation erläutert. Am Beispiel der nichtlinearen einfachen Regression wird demonstriert, warum es ein (nicht selten begangener) Fehler ist, eine nichtlineare Funktion mittels einer linearen Regressionsanalyse zu untersuchen. Weitere Abschnitte bieten zwei Lösungsmöglichkeiten an: Eine nichtlineare Funktion kann linearisiert und mittels einer linearen Regression analysiert werden. Alternativ kann eine nichtlineare Funktion mittels einer nichtlinearen Regression geschätzt werden. Außerdem werden Sinn und Grenzen der SPSS Prozedur CURVEFIT für die (non)lineare Kurvenanpassung erläutert. Abschließend wird eine nichtlineare Regression mit zwei Prädiktoren vorgestellt. An der multiplen linearen Regression werden Besonderheiten des Verfahrens, sowie die Multikollinearität und andere Fallstricke erläutert. Zu den Besonderheiten der multiplen Regression zählen u.a. die Verfahren der Variablenselektion, sowie die Interpretation der speziellen Statistiken der multiplen Regression. Neben dem Identifizieren und Beheben von Multikollinearität wird auch auf das Umgehen mit zeitabhängigen (autoregressiven) Daten eingegangen. Abschließend werden Hinweise für die Berechnung einer Partialregression gegeben. Bei den Verfahren der logistischen, sowie ordinalen Regression wird zunächst auf das Kausalmodell und das Messniveau der abhängigen Variablen eingegangen. Als grundlegendes Verfahren wird zunächst die binäre logistische Regression vorgestellt und die Gemeinsamkeiten und Unterschiede zu anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die unterschiedlichen Verfahren der Variablenselektion, sowie die Interpretation der ausgegebenen Statistiken erläutert. Abschließend wird auf das häufige Auseinanderklaffen von Modellgüte und Vorhersagegenauigkeit eingegangen. Die multinomiale logistische Regression wird analog behandelt. Zusätzlich wird der Spezialfall der Gematchten Fall-Kontroll-Studie (1:1) mit metrischen Prädiktoren vorgestellt. Anschließend wird die ordinale Regression vorgestellt und die Gemeinsamkeiten und Unterschiede mit den anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die Interpretation der SPSS Ausgaben für Modelle mit intervallskalierten und kategorial skalierten Prädiktoren erläutert. Bei der Überlebenszeitanalyse (syn.: Survivalanalyse, survival analysis, Lebenszeitanalyse, lifetime analysis, failure time analysis, time to effect, time to event analysis, etc.) werden z.B. das das Grundprinzip der Survivalanalyse, sowie die Bedeutung zensierte Daten erläutert. Als Verfahren zur Schätzung der Überlebenszeit S(t) werden die versicherungsmathematische Methode (Sterbetafel-Methode), der Kaplan-Meier-Ansatz, sowie Regressionen nach Cox behandelt. Bei der Sterbetafel-Methode werden Beispiele mit bzw. ohne Faktoren vorgestellt. Beim Kaplan-Meier-Ansatz werden Beispiele mit/ohne Faktoren, mit Schichtvariablen, sowie für die Ermittlung von Konfidenzintervallen vorgestellt. Bei den Regressionen nach Cox werden neben dem Unterschied zwischen Ansätzen für zeitunabhängige und zeitabhängige Kovariaten, ebenfalls zahlreichen Rechenbeispiele, sowie Cox-Regressionen für Interaktionen, sowie auch die Überprüfung der speziellen Voraussetzungen der Cox-Regression vorgestellt. Weitere Abschnitte behandeln weitere regressionsanalytische Ansätze und Modelle (u.a. PLS-Regression, Ridge-Regression, Modellierung individueller Wachstumskurven).

    Datum: 24. März 2016

    Nr. 001, p. 16: In der Tabelle müsste anstelle von „<“ ein „<=“ stehen, mit Ausnahme der letzten Zeile.

    Nr. 002, p. 58: Die Lineargleichung für standardisierte Koeffizienten lautet korrekt:
    Taillenumfang=0,831*Hüftumfang. Es werden die standardisierten Werte in diese Gleichung eingesetzt.

    Nr. 003, p. 315-6 (2.A.): Vgl. 299-300: Tatsächlich steigt das Hazard-Ratio („Risiko“) an; ebenfalls die Sterbewahrscheinlichkeit.
    Die Überlebenswahrscheinlichkeit nimmt dagegen ab. In der Textpassage wurde anstelle von „Risiko“
    bzw. „Sterbewahrscheinlichkeit“ versehentlich „Überlebenswahrscheinlichkeit“ verwendet.
    Die Interpretation beschränkt sich wegen dieses Hintergrunds auf die Wechselwirkung.

    2.A.“ kennzeichnet Stellen in der 2.Auflage.

    Datenmanagement mit SPSS

    Seitenanzahl

    248

    ISBN-13

    978-3540258247

    Erscheinungstermin

    2. September 2005

    Auch wenn man immer wieder die Frage hört, wieso eine Syntaxprogrammierung sinnvoll sein solle, wenn doch eine Maussteuerung vom Programm angeboten werde. So hebt der Autor die Vorteile der Syntaxprogrammierung ausdrücklich hervor. Insbesondere die Wiederverwendbarkeit eines Programms spricht für die Syntaxprogrammierung. Auch die damit gleichzeitig gewährleistete Dokumentation aller Datentransformationen macht dieses Vorgehen unverzichtbar (…). [Das Buch] ist eine wertvolle Hilfestellung für den Anfänger, aber besonders für den fortgeschrittenen Verwender ein wertvoller Ideengeber für ein professionelles Datenhandling auf hohem Niveau.


    Quelle: ZA-Information 59, November 2006

     


    Ein effizientes Arbeiten mit SPSS verlangt nach Syntaxsteuerung, dieses Buch bietet einen guten Einstig in diesen bislang weitgehend vernachlässigten Bereich. (..) Im ersten Kapitel (…) werden die Aufgaben des Datenmanagements erläutert, sowie gute Tipps zum wissenschaftlichen Arbeiten geboten. Weiters werden die Vorteile der Syntaxsteuerung klar dargestellt, sodass auch AnwenderInnen, die sich bisher durchgeklickt haben, nun davon überzeugt sein sollten, dass eine nähere Auseinandersetzung mit der Syntaxsteuerung lohnend sein kann. Im zweiten Kapitel (…) wird eine auch für EinsteigerInnen sehr behutsame Einführung in das Arbeiten mit der Syntaxsteuerung gegeben (…). Daneben werden die verschiedenen Möglichkeiten nicht nur erklärt, sondern es wird auch auf manche Probleme und Tücken im Umgang mit diesen Möglichkeiten hingewiesen. (…) Das letzte (…) Kapitel befasst sich mit der Makroprogrammierung in SPSS (…) und ist damit eher für Fortgeschrittene zu empfehlen. (…) Schrittweise nähert sich der Autor vom Einfachen zum Schwierigen, vom alltäglich Notwendigen zur Verfeinerung mit Hilfe der Makroprogrammierung. Anhand vieler Beispiele wird die Arbeitsweise der Syntaxsteuerung dargestellt (…). Insgesamt möchte ich dieses Buch (…) nicht mehr missen und kann es all jenen empfehlen, die SPSS künftig effizienter nutzen möchten.

    Quelle: Christine Duller, in: AStA Sozialstatistisches Archiv, 2007, Vol. 1, S.87 f.

     

    Dieses Buch ist sehr nützlich, wenn man beginnt mit der Syntax in SPSS zu arbeiten. Gut geeignet für das Selbststudium.

    Quelle: Kundenrezension auf Amazon.de

    Datum: 12. März 2009

    Nr. 01, p.31unten: Die angezeigten Beispielstrukturen sind seitenverkehrt. Auf p.33 sind sie wieder richtig angezeigt.


    Nr. 01, p.32unten/33oben: Die Schritte mit SELECT IF=4 (32unten) und /FILE=’C:\daten4.sav‘. (33oben) sind bei diesen Daten nicht nötig.


    Nr. 02, p.61unten: Die angezeigte Syntax ist unvollständig. Sie lautet vollständig:

    string NEULANG (A20).
    compute NEULANG=ALTKURZ.
    match files
    /file=*
    /keep ALTKURZ NEULANG.
    rename variables (NEULANG=ALTKURZ).
    exe.


    Nr. 03 p.92mitte: Anstelle von „… VAR3 VAR1 VAR5…“ muss es „… VAR3 VAR4 VAR5…“ heissen.

    1. Nicht aller Anfang ist schwer

    1.1. Was ist Datenmanagement? Braucht man das?
    1.2. Wieso Syntax?

    2. Start! Am Anfang ist der Datensatz

    2.1. Einstellungssache ist alles!
    2.2. Das Syntaxfenster
    2.3. Die Grundoperationen an einem Datensatz
    2.4. Erste Verfeinerungen

    3. Datenmanagement auf Datensatzebene

    3.1. Fälle auswählen (Teildatensätze bilden)
    3.2. Transponieren (FLIP CASES)
    3.3. Daten zusammenfügen (ADD FILES, MATCH FILES,UPDATE)
    3.4. Zugriff auf mehrere Datensätze und Variablen gleichzeitig
    3.5. Daten aggregieren (AGGREGATE)
    3.6. Datei aufteilen (SPLIT FILE)
    3.7. Umstrukturieren eines Datensatzes
    3.8. Einlesen von Daten mit DATA LIST
       3.8.1. Freies Einlesen von Daten (Freies Format, FREE)
       3.8.2. Listenweises Einlesen von Daten (Listenweises Format, LIST)
       3.8.3. Spaltenweises Einlesen von Daten (Festes Format, DATA LIST)
       3.8.4. Einlesen von externen Daten (FILE=)
       3.8.5. Umstrukturierendes Einlesen I (REREAD-Option)
       3.8.6. Umstrukturierendes Einlesen II (REPEATING DATA-Option)
    3.9. Anlegen von Zufallsdatensätzen

    4. Datenmanagement auf Variablenebene

    4.1. Formatieren und Sortieren
    4.2. Komplexere Operationen
       4.2.1. Zählen (COUNT)
       4.2.2. Berechnen (COMPUTE)
       4.2.3. Funktionen für Missings
       4.2.4. Wenn-dann (Bedingungen für die IF-Option)
       4.2.5. Fälle gewichten (WEIGHT)
       4.2.6. Werte rekodieren (automatisch, gezielt)
       4.2.7. Ränge bilden (RANK)
       4.2.8. Temporäres Arbeiten (TEMPORARY)
    4.3. Erste Automatisierungen (DO IF, DO REPEAT)
    4.4. Tipps & Tricks
       4.4.1. Das nachträgliche Integrieren einer ID-Variablen
       4.4.2. Das Ermitteln der Anzahl unterschiedlicher Werte oder Strings (AGGREGATE-Funktion)
       4.4.3. LAG-Operation (Zeilenweise verschobenes Übernehmen von Datenspalten)
       4.4.4. Effizienz durch Makroprogrammierung
       4.4.5. Zusammenfassen von einzelnen Zeichen in längere Strings

    5. Analyse von Mehrfachantworten

    5.1. Mehrfachantworten unkompliziert ausgewertet (MEANS, GRAPH)
    5.2. „Univariate“ Analyse von Mehrfachantworten (MULT RESPONSE)
    5.3. Mehrfachantworten als Kreuztabelle (MULT RESPONSE „bivariat“)
    5.4. Von Mehrfachantworten zu Kategorienvariablen (VARSTOCASES)

    6. Operationen mit Datums- und Zeitangaben

    6.1. Hintergrund und Besonderheiten
    6.2. Arithmetische Operationen
    6.3. Funktionen für Datums- und Zeitvariablen
       6.3.1. Zusammenfassen (aggregation)
       6.3.2. Konvertierung (conversion)
       6.3.3. Extraktion (extraction)
       6.3.4. YRMODA-Funktion
    6.4. Weitere Möglichkeiten der Arbeit mit Datums- und Zeitvariablen

    7. Analyse von (halb)offenen Textantworten

    7.1. Gruppieren von mehreren Textangaben (eine Variable)
    7.2. Selektives Suchen von Schlüsselbegriffen (eine Variable)
    7.3. Analyse mehrerer Angaben (eine Variable)
    7.4. Analyse mehrerer Angaben (mehrere Variablen)
    7.5. Analyse von Angaben mit mehr als 255 Zeichen (mehrere Variablen)

    8. Erste Hinweise für die Arbeit mit Syntaxprogrammen

    8.1. Syntaxprogrammieren – erste Schritte
    8.2. Hinweise für die Arbeit mit der SPSS-Syntax

    9. Makroprogrammierung mit SPSS – erste Schritte

    9.1. Was sind Makros?
       9.1.1. Was leisten Makros? Vorteile des Makroprogrammierens
       9.1.2. Aufbau dieser Einheit
    9.2. Wie ist ein Makroprogramm aufgebaut?
    9.3. Was können Makros? – Teil 1
    9.4. Aufbau und Ablauf eines Makros
       9.4.1. Makrodefinition und Makrokörper
       9.4.2. Makroaufruf und Makroexpansion
    9.5. Was können Makros? – Teil 2
       9.5.1. Direktes Übergeben von Werten an Makrovariablen (!LET)
       9.5.2. Stringfunktionen und ihre Variationsmöglichkeiten
       9.5.3. Bedingungen (Konditionale Prozesse und Anweisungen)
       9.5.4. Schleifenkonstruktionen
    9.6. Makrooptionen (Bezüge auf Namen, Bezüge auf Positionen und anderes)
       9.6.1. Bezug auf Schlüsselworte (Namensargumente, !KEY)
       9.6.2. Bezug auf Positionen (Positionsargumente, !POS)
       9.6.3. Weitere Optionen in der Makrodefinition (!TOKENS, !CHAREND, !ENCLOSE und CMDEND)
       9.6.4. SET-Optionen für die Makronutzung
    9.7. Makroprogrammierung, Fallstricke und Fehlalarme
       9.7.1. Keine Übereinstimmung von Makro und Makroaufruf
       9.7.2. Fehler bei der Makrodefinition (z.B. vergessene !-Zeichen oder Klammern)
       9.7.3. Fehlalarm? Mehrere Makros mit demselben Namen in einer Sitzung
       9.7.4. Korrektes Einbeziehen fehlerhafter bzw. angemessener Dateneigenschaften
       9.7.5. Logikfehler
       9.7.6. Wider ein Missverständnis
    9.8. Ein kleiner Crashkurs – Sieben Schritte für das Schreiben von Makros

    10. Übersicht – SPSS-Syntax, Anwendungsschwerpunkte und Grundfunktionen

    11. Hinweise für Macintosh-User

    Deskriptive Statistik

    Inhalt
    Die deskriptive Statistik ist das Fundament jeder professionellen Datenanalyse. Dieser Kurs ist inhaltlich auf das Kennenlernen und die Ermittlung, Darstellung und Interpretation der gebräuchlichsten Lage-, Streu-, und Formmaße ausgerichtet. Dieser Kurs führt Sie ein in die Grundbegriffe und Grundannahmen der deskriptiven Statistik (z.B. Grundgesamtheit/Stichprobe, Merkmal/Variable, Skalenniveaus, und Gütekriterien), Sinn und Grenzen der wichtigsten Kennziffern und ihre Anforderung mit den SPSS Menüs „Häufigkeiten“, „Deskriptive Statistiken“, „Kreuztabellen“, „Explorative Datenanalyse“ und „Tabellen“ bzw. den Prozeduren DESCRIPTIVES, EXAMINE, FREQUENCIES, CROSSTABS und TABLES. Nach diesem Kurs können Sie für beliebige Datenverteilungen alle wichtigen Kenngrößen univariat bzw. gruppiert berechnen und interpretieren, wie auch oft begangene Irrtümer bei der Berechnung solcher Kenngrößen bereits im Ansatz erkennen und vermeiden.

    Steuerung
    Maus + Syntax

    Dauer
    ½-1 Einheit

    Von Menschen und Mäusen: SPSS für Anfängerinnen und Anfänger

    Inhalt
    Dieser Kurs erläutert den wichtigsten Funktionsumfang von SPSS, unter anderem die zahlreichen Einstellungsmöglichkeiten, und die Basics der Eingabe, des Managements und der Analyse von Daten per Maussteuerung.

    Steuerung
    Maus

    Dauer
    1 Einheit, alternativ nach Absprache.

    SPSS per Maus

    Inhalt
    Dieser Kurs stellt SPSS V15 (auf Wunsch auch V12 – V14) vor, u.a. den Daten-Editor (inkl. Exkurs zu Basics über Datentabellen), und die Daten- und Variablenansicht des SPSS Daten-Editors einschl. dem ersten Anlegen eines eigenen Datensatzes. Weiter werden die Menüpunkte vorgestellt, unter denen Sie Einstellungen (Optionen) an SPSS vornehmen können, wie auch auf Support seitens SPSS zurückgreifen können (u.a. „Extras“, „Hilfe“, „Bearbeiten“ und „Ansicht“). Anschließend werden SPSS Menüpunkte für das Daten-Management („Datei“, „Daten“, „Transformieren“) erläutert, wie auch die erste Erzeugung und Bearbeitung von Grafiken und ausgewählte Tipps und Tricks (u.a. zur Nachbearbeitung). Ein weiterer Kursteil führt in die deskriptive Statistik ein und stellt die gebräuchlichsten Lage-, Streuungs- und Formmaße vor, anschließend die zahlreichen Möglichkeiten der Anforderung, Strukturierung und Analyse von Tabellen, wie auch ihre Nachbearbeitung. Der letzte Kursteil stellt den SPSS Menüpunkt „Analysieren“ vor, und darin die zahlreichen Möglichkeiten deskriptiver und inferenzstatistischer Analysen mit SPSS V15.

    Steuerung
    Maus

    Dauer
    2-3 Einheiten, auf Wunsch auch nach Absprache.

    SPSS per Maus

    Inhalt
    Dieser Kurs bietet vorrangig einen Überblick über die seitens SPSS angebotenen parametrischen und nichtparametrischen Verfahren. Vorgestellt werden u.a. Korrelation (bivariat, partiell, Anfängerfehler), Einfache Regression (linear, Kurvenanpassung), Vergleiche zwischen zwei oder mehr unabhängiger, oder auch verbundener (abhängiger) Gruppen (z.B. T-Test, ein-/mehrfaktorielle Varianzanalyse ohne/mit Messwiederholung, Kontraste, post hoc-Tests, Kovarianzanalyse, MANOVA, Profilanalyse), Faktorenanalysen (u.a. Hauptfaktoren, Hauptkomponenten) mit versch. Rotationsverfahren (z.B. orthogonal vs. oblique), Diskriminanzanalysen (direkt, schrittweise), und Clusteranalysen für Häufigkeits-, binäre und Intervalldaten, Binäre logistische Regression (schrittweise, direkt), Ordinale Regression, Multinomiale logistische Regression (schrittweise, direkt), Multiple Regression, Effektstärken/Power etc. Da in diesem Kurs verständlicherweise nicht alle Verfahren in ihrer mitunter recht komplizierten Statistik dargestellt werden können, wären ggf. Schwerpunkte abzusprechen.

    Steuerung
    Maus

    Dauer
    Nach Absprache

    Grafiken

    Inhalt
    In diesem Kurs lernen Sie zunächst die Grundtypen der in SPSS verfügbaren Grafiken kennen, ihre Geeignetheit für Skalenniveaus und Verteilungen, und anschließend über Maus bzw. Syntax zahlreiche Varianten anfordern und interpretieren. Dieser Kurs macht erfahrungsgemäß viel Spaß, da hier mit Formen, Farben, Mustern etc. kreativ die ästhetische, wie auch psychologische Wirkung von Grafiken beeinflusst werden kann. SPSS ermöglicht auch hier, Schablonen zu entwickeln, und sich viel zukünftige Denk- und Auswertungsarbeit zu ersparen. Inhalte (u.a.): Grundformen der Grafiken: Balken, Linien, Kreisdiagramme, Histogramme, Boxplots, (einfach, gruppiert), aber auch Wettbewerbsvorteilsmatrizen (Portfolios) und Polaritätsprofile bzw. Semantische Differentiale. Bei welchen Daten (Verteilungen, Skalenniveaus) macht welcher Grafiktyp Sinn? Entwurf, Anforderung und Interpretation zahlreicher Grafiktypen mit den SPSS Menüs „Grafiken“ und „Interaktive Grafiken“ bzw. den Prozeduren GRAPH und IGRAPH. Abschließend wenden Sie einige Tipps und Tricks an, u.a. zum Nachbearbeiten von SPSS Grafiken in MS Word Dokumenten, dem Syntaxprogrammieren für Grafiken (Erste Schritte) und zum Designen eigener Grafiken.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Tabellen

    Inhalt
    Im Kurs „Tabellen“ lernen Sie Design, Strukturierung (Verschachtelung) und die Anforderung zahlreicher Tabellenvarianten kennen. Von der Erzeugung einfacher eindimensionaler Tabellen bis hin zur Anforderung bzw. Programmierung verschachtelter (4dimensionaler) Tabellen mit den Prozeduren CTABLES, CROSSTABS, und TABLES. Abschließend wenden Sie einige Tipps und Tricks an, u.a. zum Design und Nachbearbeiten von SPSS Pivot-Tabellen bzw. Schablonen und das erste Anwenden von SPSS Scripts auf Tabellen. Im Kurs „Tabellenanalyse“ lernen Sie die Grundlagen der professionellen Tabellenanalyse kennen.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Karten

    Inhalt
    Im Kurs „Karten“ lernen Sie Design, Anforderung und Interpretation zahlreicher Kartentypen mit den SPSS Menüs „Karten“ bzw. der SPSS Prozedur MAP kennen. Abschließend wenden Sie einige Tipps und Tricks an, u.a. zum Designen von SPSS Karten.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Tabellen

    Inhalt
    Im Kurs „Tabellen“ lernen Sie Design, Strukturierung (Verschachtelung) und die Anforderung zahlreicher Tabellenvarianten kennen. Von der Erzeugung einfacher eindimensionaler Tabellen bis hin zur Anforderung bzw. Programmierung verschachtelter (4dimensionaler) Tabellen mit den Prozeduren „Benutzerdefinierte Tabellen“, „Kreutztabellen“ und „Tabellen“ bzw. den SPSS Prozeduren CTABLES, CROSSTABS, und TABLES. Im Kurs „Tabellenanalyse“ lernen Sie die Grundlagen der professionellen Tabellenanalyse kennen.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Einführung in die Inferenzstatistik

    Inhalt
    Dieser Kurs bietet zunächst eine Einführung in die Grundlagen der Inferenzstatistik (Sinn und Grenzen), in die Messtheorie und ihrer Axiome, die Bedeutung der Skalenniveaus (Messniveaus) und die Grundbegriffe der Operationalisierung. Die Theorie und das Schema des Hypothesentests wird vorgestellt (einschl. Fehler I. und II. Art), Fragerichtungen und Fußangeln beim Interpretieren von Signifikanzen. Mehrere Ansätze zur Bestimmung des Stichprobenumfangs (Fallzahlen) werden skizziert, wie auch die damit einhergehenden Probleme. Mehrere Verteilungen werden vorgestellt als Prüf- und Modellverteilungen (u.a. Binomial, Poisson, Normal, Chi², F). Wahrscheinlichkeiten werden ermittelt. Die Praxis des Hypothesentests wird an zahlreichen Punkt- und Intervallschätzungen demonstriert (z.B. Chi²-Test, U-Test, T-Test).

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Einführung in parametrische Verfahren

    Inhalt
    Dieser Kurs bietet vorrangig einen Überblick über die seitens SPSS angebotenen parametrischen Verfahren. Die Kursdauer hängt direkt vom gewünschten Grad der Vertiefung der Verfahren und Ihrer jeweiligen Voraussetzungen ab. Vorgestellt werden u.a. eine Einführung in das Grenzwerttheorem, Voraussetzungstests, wie auch zahlreiche parametrischen Verfahren: Korrelation (bivariat, partiell, Anfängerfehler), Einfache Regression (linear, Kurvenanpassung), Vergleiche zwischen zwei oder mehr unabhängiger, oder auch verbundener (abhängiger) Gruppen (z.B. T-Test, ein-/mehrfaktorielle Varianzanalyse ohne/mit Messwiederholung, Kontraste, post hoc-Tests, Kovarianzanalyse, MANOVA, Profilanalyse), Faktorenanalysen (Hauptfaktoren, Hauptkomponenten) mit versch. Rotationsverfahren (z.B. orthogonal vs. oblique), Diskriminanzanalysen (direkt, schrittweise), und Clusteranalysen für Häufigkeits-, binäre und Intervalldaten, Binäre logistische Regression (schrittweise, direkt), Ordinale Regression, Multinomiale logistische Regression (schrittweise, direkt), Multiple Regression, Effektstärken/Power etc.

    Steuerung
    Maus + Syntax

    Dauer
    Nach Absprache

    Tabellenanalyse

    Inhalt
    Im Kurs „Tabellenanalyse“ lernen Sie die Grundlagen der professionellen Tabellenanalyse kennen. Die Einführung stellt Grundlagen und Voraussetzungen für die Tabellenanalysen vor, z.B. Anzahl der Variablen(stufen), Skalenniveau, Annahmen der Verfahren, Aussagen der Maße und Verfahren uvam. Mit den SPSS Menüs „Kreuztabellen“, „Nichtparametrische Tests“ und „ROC-Kurve“ bzw. den Prozeduren CROSSTABS, NPAR TEST und ROC lassen sich relativ einfach und unkompliziert Tests und Maßzahlen für 1- bis mehrdimensionale Tabellenstrukturen ermitteln. Die Anforderung der jeweiligen Maße wird an zahlreichen Beispielen demonstriert. Die angeforderten Tests und Maße werden ausführlich erläutert. Für spezielle Screening Statistiken (Sensitivität und Spezifität) wird u.a. die sog. ROC-Kurve vorgestellt. Die Voraussetzungen der Verfahren werden vorgestellt und ihre Überprüfung geübt.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Nichtparametrische Verfahren

    Inhalt
    Der Kurs „Nichtparametrische Verfahren“ bietet u.a. eine Einführung in die Vorzüge nichtparametrischer Verfahren, (z.B. gibt es zum Jonckheere-Terpstra-Test keine vergleichbaren parametrischen Pendants), anschließend Assoziation und Korrelation, Vergleiche zwischen zwei oder mehr unabhängiger, oder auch verbundener (abhängiger) Gruppen (Wilcoxon, Kruskal-Wallis, Jonckheere-Terpstra uam.) und erste Tabellenmaße. Die Analyse von in Tabellen zusammengefassten Daten wird im Kurs „Tabellenanalysen“ vertieft. Dieser Kurs stellt für die Verfahren die jeweiligen Voraussetzungen vor. Ihre Überprüfung wird an zahlreichen Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Korrelation

    Inhalt
    Der Kurs „Korrelation“ führt ein in die bivariate Pearson Korrelation, ihre Berechnung und diverse Besonderheiten bei der Interpretation der ermittelten Koeffizienten. Dargestellt werden häufig vernachlässigte Voraussetzungen (u.a. Stichprobenmerkmale, Linearität, Kontinuität) und Probleme wie z.B. Scheinkorrelation, Effekte durch Drittvariablen und Alphafehler-Kumulierung (einschl. ihrer Lösung). Als besondere Anwendungen werden der direkte Vergleich von Koeffizienten, der gruppenweise Vergleich von Korrelationen und die lineare kanonische Korrelation vorgestellt. Die Überprüfung der zahlreichen Voraussetzungen wird an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Varianzanalyse

    Inhalt
    Dieser Kurs führt ein in Vergleiche zwischen zwei oder mehr unabhängige oder auch verbundene (abhängige) Gruppen. Vorgestellt werden z.B. T-Test, ANOVA, ein-/mehrfaktorielle Varianzanalyse ohne/mit Messwiederholung (Profilanalyse), Kovarianzanalyse Kontraste, und post hoc-Tests. Anforderung, Interpretation und Erläuterung des Outputs. Zahlreiche Voraussetzungen des jew. Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Einführung in parametrische Verfahren

    Inhalt
    Der Kurs „Regression“ stellt eine Einführung in eines der gebräuchlichsten und wahrscheinlich am meisten unterschätzten Verfahren zur Analyse von gerichteten linearen bzw. nichtlinearen Zusammenhängen vor. Vorgestellt werden u.a. die einfache lineare Regression, die Linearisierung nichtlinearer Funktionen, die einfache nichtlineare Regression und die multiple lineare Regression. Direkte und schrittweise Methoden. Graphische Voraussetzungstests. Anforderung. Interpretation und Erläuterung des Output (u.a. R², ANOVA, Koeffizienten). Identifikation, Bewertung und Ausschluss von Ausreißern (Residuen, einflussreiche Werte). Kriterien für die Wahl zwischen verschiedenen Modellgleichungen. Zahlreiche Voraussetzungen (Linearität, Normalität, Varianzengleichheit) des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt. Bei der multiplen Regression werden Ansätze zur Identifikation von Autokorrelation und Multikollinearität und drei Ansätze zum Umgang mit Multikollinearität vorgestellt. Für nichtlineare Funktionen wird die Kurvenanpassung, ein Ansatz der Linearisierung bzw. die Analyse mittels der nichtlinearen Regression (LNR, CLNR) vorgestellt.

    Steuerung
    Maus + Syntax

    Dauer
    1-1½ Einheiten

    Diskriminanzanalyse

    Inhalt
    Dieser Kurs führt ein in die Logik und Phasen der Diskriminanzanalyse und vergleicht das Verfahren mit anderen Ansätzen. Modellspezifikation und Anforderung. Direkte und schrittweise Methoden. Berechnung multipler schrittweiser Diskriminanzanalysen mit einer oder zwei Funktionen. Interpretation und Erläuterung des Outputs, u.a. von Lambda, Box-Test, Kovarianz-Matrizen und Multikollinearität, wie auch Gebietskarten (Territorien). Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    1-1½ Einheiten

    Binäre logistische Regression

    Inhalt
    Dieser Kurs führt ein in die binäre logistische Regression (LOGISTIC REGRESSION) und Vergleich mit anderen Ansätzen. Modellspezifikation und Anforderung. Interpretation und Erläuterung des Output (u.a. Hosmer-Lemeshow-Test, Odds Ratio, Koeffizienten, Cutoff). Modellgüte vs. Prädikative Effizienz. Anforderung, Interpretation und Erläuterung des Outputs. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Ordinale Regression

    Inhalt
    Dieser Kurs führt ein in die Ordinale Regression und Vergleich des Verfahrens mit anderen Ansätzen der kategorialen Regression. Idee des Schwellenwertmodells und Bedeutung der Link-Funktion. Modellspezifikation und Anforderung. Interpretation und Erläuterung des Output (u.a. Nullhäufigkeiten, Anpassungsgüte, McFadden, Parameterschätzer und Modellgleichung). Beurteilung der Vorhersagegüte. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Ordinale Regression

    Inhalt
    Dieser Kurs führt ein in die multinomiale logistische Regression und Vergleich zum binären Ansatz. Direkte und schrittweise Methoden. Modellspezifikation und Anforderung. Interpretation und Erläuterung des Output (u.a. Abweichung bzw. Pearson, Likelihood-Quotienten-Test, Odds Ratio, Cutoff). Als Spezialfall wird die Berechnung und Interpretation einer gematchten Fall-Kontroll-Studie vorgestellt. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    time to event-Analysen Überlebenszeitanalysen

    Inhalt
    Dieser Kurs führt ein in die time to event-Analyse mittels der Verfahren Sterbetafel (SURVIVAL), Kaplan-Meier (KM) und Cox-Regression (COXREG) für zeitunabhängige und zeitabhängige Daten. Zunächst wird das Grundprinzip der Überlebenszeitanalyse mit und ohne Zensierungen vorgestellt. Vorgestellt werden u.a. die Bestimmung der Überlebens- und Hazardfunktion, sowie Tests für den Vergleich zwischen mehreren Gruppen (Log Rank, Breslow, Wilcoxon, Wald und Likelihood Ratio). Bei der Modellspezifikation wird u.a. auf Probleme des Untersuchungsdesigns und von Zensierungen (random censoring) einge­gangen, z.B. wie Zensierungen definiert, kodiert und interpretiert werden. Bei der Cox-Regression (COXREG) werden Beispiele für zeitunabhängige und zeitabhängige Daten gerechnet und interpretiert. Die Überprüfung der Voraussetzungen und die Interpretation der Statistiken werden an zahlreichen Beispielen geübt, z.B. die Überprüfung der Proportionalitätsannahme bei der Cox-Regression. Abschließend wird ein Vergleich der Ansätze vorgenommen, u.a. hinsichtlich der untersichten Einheit bzw. Basis, der Visualisierung von Zensierungen, Datenmengen, implementierte Tests und Modelldiagnostik.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Faktorenanalysen

    Inhalt
    Dieser Kurs führt in das Grundprinzip und Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) und ihre Funktion. Vorgestellt werden Kriterien zur Bestimmung, Interpretation und Benennung der Faktoren. Zahlreiche Voraussetzungen des Verfahrens werden vorgestellt und ihre Überprüfung an Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    ½ Einheit

    Clusteranalysen

    Inhalt
    Dieser Kurs führt ein in die Gruppe der Clusterverfahren. Vorgestellt werden hierarchische, partitionierende und TwoStep-Verfahren. Bei der hierarchischen Clusteranalyse (CLUSTER) lernen Sie die diversen Maße (z.B. quadrierte euklidische Distanz, Pearson-Korrelation, Chi²-Maß etc.) und Methoden (Density, Linkage, Ward etc.) einschl. ihrer Bias (z.B. Ausreißer, Chaining) kennen und lernen, Intervalldaten, Häufigkeiten und binäre Daten zu clustern bzw. Kategorialdaten und gemischte Daten zu kodieren, clustern und jeweils zu interpretieren. Die Clusterzentrenanalyse (k-means, QUICK CLUSTER) lernen Sie als partitionierendes Verfahren kennen. Sie lernen Teststatistiken zur Bestimmung der optimalen Clusterzahl kennen (z.B. Eta², F-max; nicht im original SPSS Leistungsumfang enthalten), wie auch die ausgewählte Clusterlösung auf Interpretierbarkeit, Stabilität und Validität zu prüfen. Die Besonderheiten der seit V11.5 von SPSS angebotenen Two-Step Clusteranalyse (TWOSTEP CLUSTER) werden anhand einer aktuellen Evaluation mit der gebotenen kritischen Distanz vorgestellt. Darüber hinaus lernen Sie Kriterien für die Beurteilung einer guten Clusterlösung kennen, wie auch alternative grafische und logische Ansätze zur Clusterung von Daten. Für alle Verfahren wird die Überprüfung von Voraussetzungen, Anforderung, Rechenschritte, wie auch die Interpretation von Ergebnissen an Beispielen geübt. Die Unterlagen alleine für diesen Kurs umfassen ca. 180 DIN A4 Seiten.

    Steuerung
    Maus + Syntax

    Dauer
    1½-2 Einheiten

    SPSS für zeitabhängige Daten

    Inhalt
    Der Kurs „Verfahren für zeitabhängige Daten“ führt in Verfahren für abhängige Daten und Stichproben ein. Zunächst werden der T-Test für zwei unabhängige Stichproben und der T-Test für zwei verbundene Stichproben vorgestellt. Vor dem Hintergrund der Versuchsplanung werden Sinn und Grenzen dieser beiden Ansätze besprochen. Für mehr als zwei Meßzeitpunkte wird das Verfahren der Varianzanalyse mit Meßwiederholung vorgestellt, darin u.a. in Varianten mit nur einem Meßwiederholungsfaktor (within subjects-Faktor), einer weiteren Variante mit der Einführung in die paarweisen Vergleiche (a priori, ex post) und einer Variante mit einem Meßwiederholungsfaktor und einem Zwischengruppenfaktor (between subjects-Faktor). Die diversen Voraussetzungstests (u.a. Mauchly, Box und Levene) werden erläutert. Abschließend werden weitere Aspekte vorgestellt, z.B. Interpretation im Rahmen der Versuchsplanung, Quadratsummen (Typen), Alphakorrektur sowie Kontraste. Die Überprüfung der Voraussetzungen und die Interpretation der Statistiken werden an zahlreichen Beispielen geübt.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Daten-Management

    Inhalt
    Auf Datensatz-Ebene

    Daten können erst nach einer angemessenen Aufbereitung bzw. Transformation ausgewertet werden. Professionelles Daten-Management ist genauso wichtig und nicht selten komplexer als die eigentliche Analyse der Daten. In diesem Kurs lernen Sie zahlreiche Möglichkeiten, Tipps und Tricks kennen, Ihre Daten für grafische, deskriptive, oder statistische Analysen vorzubereiten. Viele Optionen sind in der Maussteuerung umständlicher oder gar nicht verfügbar.

    Auf Variablen-Ebene

    Transponieren, Dateien einlesen (einfach, gruppiert, genestet), Dateien zusammenfügen (Fälle bzw. Variablen Fälle aus identisch strukturierten Datensätzen), Daten aggregieren, Dateien aufteilen, mehrere Möglichkeiten des Bildens von Subsets (u.a. gezielte Fälle, Zufall, alphanumerische oder numerische Filter), Indexe bilden, Datensätze umstrukturieren, uvam.

    Analyse von Mehrfachantworten

    Definieren neuer bzw. Ändern bereits vorhandener Namen und Labels, Ändern numerischer oder alphanumerischer Variablen in eine, dieselbe oder mehrere, neue Variablen, die Berechnung von neuen Variablen, Zählen des Auftretens bestimmter Werte, Umkodieren von Werten, Gewichten von Fällen, Extrahieren von Datumsvariablen aus Stringvariablen, Umbenennen zahlreicher Variablennamen (Präfixe), Arbeit mit Datumsvariablen, Arbeit mit Missings, erste SPSS Makros, uvam.

    Analyse von freien Textangaben

    Besonders herauszuheben sind die Einführungen in die Analyse von Mehrfachantworten und die Analyse von freien Textangaben. Vorgestellt und geübt werden unterschiedliche Ansätze, Mehrfachantworten deskriptiv und grafisch auszuwerten. Für freie Textangaben werden gleich mehrere Analysemöglichkeiten vorgestellt, u.a. für Strings auf mehrere Variablen verteilt, die Analyse einer oder mehrerer Textangaben, oder z.B. die Analyse von Textangaben mit auch über 255 Zeichen Länge, was besonders für die Analyse von umfangreichen Textangaben eine große Hilfe sein kann.

    Daten-Management für Datums- und Zeitangaben

    Der Arbeit mit Datums- und Zeitangaben wird mittels eines eigenen Kursteiles besondere Aufmerksamkeit gewidmet, da mit der Analyse, Formatierung und Konvertierung von Datums- und Zeitangaben erfahrungsgemäß oft besondere Schwierigkeiten einhergehen. Vorgestellte Anwendungszusammenhänge sind u.a. Hintergrund und Besonderheiten von Datums- und Zeitangaben (u.a. DATA LIST und FORMATS, Einlese- und Schreibformate), arithmetische Operationen (u.a. DATE, EDATE, TIME, DATETIME), Funktionen (u.a. Zusammenfassen (u.a. DATE.DMY, DATE.YRDAY, TIME.HMS, TIME.DAYS, Konvertieren (u.a. CTIME.DAYS, CTIME.HOURS, CTIME.MINUTES, und Extrahieren (u.a. XDATE.MDAY, XDATE.MONTH, XDATE.YEAR, XDATE.WKDAY, XDATE.HOUR, XDATE.MINUTE, XDATE.SECOND, XDATE.TIME, XDATE.WEEK, XDATE.QUARTER, XDATE.TDAY bzw. XDATE.DATE), und weitere Möglichkeiten der Arbeit mit Datums- und Zeitvariablen (u.a. punktuelles Ersetzen, als Missing deklarieren, Extrahieren einer Datumsvariablen aus einer Stringvariablen uam).

    Steuerung
    Maus + Syntax

    Dauer
    1-2 Einheiten, auf Wunsch auch nach Absprache.

    Programmierung von Makros

    Inhalt
    Lernen Sie die Power von SPSS kennen! SPSS Makros erlauben vielfältige Aufgaben zu automatisieren, protokollieren und zu beschleunigen. Vorgestellt werden häufig auftretende praktische Anwendungsbereiche, in denen Sie selbst geschriebene Makros effizienzsteigernd einsetzen können, z.B. bei konditionalen Prozessen und Anweisungen, iterativen Analysen, Schleifen und auch Stringfunktionen. Diese Einführung in die Makroprogrammierung mit SPSS erläutert zunächst Makroelemente an einem einfachen Beispiel, um dann den Makrokörper bzw. die Makrodefinition (z.B. Argument und Position), den Makroaufruf und die Makroexpansion genauer vorzustellen. Anschließend werden Sie mit Namens- bzw. positionalen Argumenten und weiteren Optionen programmieren lernen. Abschließend wird ein Crashkurs („Sieben Schritte“) zur Programmierung von Makros vorgestellt.

    Steuerung
    Maus + Syntax

    Dauer
    1 Einheit

    Einführung in die Planung wissenschaftlicher Studien

    Inhalt
    Dieser Kurs führt ein in die Forschungsmethoden und Statistik im Kontext der Planung, Analyse und Qualitätssicherung von Studien auch in großem Rahmen. Angefangen von der Planung einer Studie (u.a. Protokoll, Bias, Reichweite, Einschlusskriterien und Maskierungstechniken) über Überlegungen zum Aufbau (Design- und Testarten, Fragebogenkonstruktion), Durchführung einer Studie (u.a. Arten des Monitoring) bis hin zu grundsätzlichen Überlegungen zu Datenanalyse und Qualitätssicherung (Daten, Ergebnisse).

    Steuerung
    Seminar

    Dauer
    Nach Absprache

    Datenqualität

    Inhalt
    Datenqualität kommt vor Analysequalität. Dieser Kurs führt ein in die Maßnahmen zur Sicherung einer optimalen Datenqualität in den am häufigsten auftretenden Problembereichen Vollständigkeit, Einheitlichkeit, Doppelte, Missings, Ausreißer und Plausibilität. Vorgestellt werden Techniken, die die Vollständigkeit und Einheitlichkeit von Datensätzen, Variablen und Werten gewährleisten. Sie lernen die Art und Anzahl von doppelten Fällen zu identifizieren, wie auch doppelte Datenzeilen aus Datensätzen zu filtern und separat zu analysieren. Sie lernen mehrere Methoden des Ersetzens von Missings kennen, u.a. logischer Ansatz, univariate Imputation (Mean Substitution), Hot deck, Regression, Erwartung-Maximierung (SPSS Missing Value Analysis, MVA). Univariate bzw. multivariate Ausreißer und Plausibilität lernen Sie identifizieren, evaluieren und zu optimieren, bis hin zur Arbeit mit mehreren Datensätzen (z.B. Vergleich zweier Datensätze).

    Steuerung
    Maus + Syntax

    Dauer
    1½-2 Einheiten

    Buchung
    Inhalte

    Sie haben die Möglichkeit, sich aus den angegebenen Einheiten den Inhalt der Kurse auf Ihre Anforderungen vor Ort hin maßzuschneidern. Sie buchen also nur das, was Sie wirklich brauchen.

    Teilnehmerzahl und Termine

    Die Anzahl der Teilnehmer bestimmen Sie, ebenfalls die Termine der Kurse. Die jeweiligen Kurstermine können Sie frei festlegen, und somit auf Ihre Anforderungen vor Ort abstimmen.

    Kursarten, Ort und Dauer

    Die Kurse finden in der Regel bei Ihnen vor Ort als Inhouse-Training statt, sei es in Deutschland, Österreich oder in der Schweiz. Ihre Vorteile sind eingesparte Reise- und Übernachtungskosten und kürzere Abwesenheit vom Arbeitsplatz für Ihre MitarbeiterInnen, und ein effektiveres Lernen, weil es in der gewohnten (Rechner)Umgebung stattfindet. Ein Kurstag geht in der Regel von 10.00 bis 17.30. Anpassungen auf Anforderungen vor Ort gerne nach Absprache. Inhouse-Trainings sind möglich als Einzelkurse, Tageskurse, mehrtägige Kurse, oder mehrere Blöcke übers Jahr verteilt. Konditionen für Outhouse-, Crash- oder Wochenendkurse, wie auch Kurse für privat (Einzelpersonen oder Gruppen) gerne auf Anfrage.

    Materialien

    Alle Kursteilnehmer erhalten zu jedem Kurs umfangreiche Materialien, die im Kurspreis enthalten sind.Diese eigens entwickelten Unterlagen enthalten Einführungen in methodische Grundlagen, verständliche Erläuterungen, unzählige Beispiele, Syntax, und kommentierte Ergebnisse bzw. erschöpfend zusammengestellte Voraussetzungen der jeweiligen Verfahren. Bei hoher Verständlichkeit und klarer Struktur sind die Skripte von methodischer Professionalität. Mehrere auf diesen Materialien aufbauende SPSS Bücher erschienen mittlerweile auch bei Oldenbourg (München) bzw. Springer (Heidelberg). Alle Kursteilnehmer erhalten eine Teilnahmebescheinigung, die die erworbenen Qualifikationen hervorhebt.

    An- und Abmeldung

    Unsere Kurse sind gut und gefragt. Wir bitten daher um rechtzeitige Buchung. Termine werden in der Reihe des Eingangs reserviert. Absagen sind grundsätzlich schriftlich vorzunehmen. Bei einem Rücktritt bis zwei Wochen vor Trainingsbeginn entstehen keine Kosten. Bei späterer Absage bzw. Nichterscheinen ist die volle Teilnahmegebühr zu begleichen.

    Preise und Rabatte

    Die Kurskosten verstehen sich als eine Kombination aus Mindestbuchung und Staffelpreisen: Ein SPSS Kurstag für 2 Personen kostet zusammen CHF 900 zzgl. MWSt. ggf. zzgl. Reisespesen (u.U. ist eine Steuerbefreiung möglich). Jede weitere TeilnehmerIn zahlt reduzierte Kurskosten. Wenn Sie mehrere Kurse buchen, kommen wir Ihnen zusätzlich mit reduzierten Kursgebühren entgegen. Je mehr Teilnehmer Sie sind bzw. je mehr Kurse Sie buchen, desto geringer werden die Kosten der einzelnen Kosten. Für Universitäten, Fachhochschulen, und andere Einrichtungen der Länder gerne auch Abrechnung über Lehraufträge.

    Sie haben noch Fragen? Wir stehen gerne zu Ihrer Verfügung.

    Sie haben noch Fragen?
    Wir stehen gerne zu Ihrer Verfügung.

    SQL für Fortgeschrittene

    Inhalt
    Dieser Kurs wurde für Fortgeschrittene in PROC SQL oder SAS Base entwickelt und behandelt Anwendungsmöglichkeiten, mit denen sich Anwender die Power von SAS zunutze machen können:

    • Missings (Nullwerten): Das SQL von SAS mit Missings geht anders als der ANSI-Standard um. Veranschaulicht wird, wie das Nichtberücksichtigen dieser Besonderheiten zu unerwünschten Ergebnissen führen kann.
    • Datenqualität, u.a. mit Integrity Constraints (Prüfregeln) und Audit Trails (Prüfprotokollen).
    • Makroprogrammierung: Der Kurs führt von einfachen (SQL) Makrovariablen bis hin zu komplexen SAS Programmen. Zahlreiche Anwendungen von Makrovariablen und -programmen zur Beschleunigung und Automatisierung werden behandelt. Mit dem listenweisen Ausführen von Befehlen kann z.B. die Arbeit mit SAS sowohl bei der Programmierung, wie auch bei der Ausführung von Programmen um ein Vielfaches beschleunigt werden kann.
    • Hash Programming als Alternative zu SQL kann behandelt werden, falls noch mehr Performanz nötig sein sollte.

    Steuerung
    Syntax

    Dauer
    2 Einheiten

    SAS Macro Programmierung

    Inhalt
    Dieser Kurs wurde nicht nur für Fortgeschrittene in PROC SQL bzw. SAS Base entwickelt. Vorteile der Makroprogrammierung sind: Effizienzsteigerung, Geschwindigkeit, kürzere Programme, bessere Übersichtlichkeit, und geringere Wahrscheinlichkeit für Fehler. Trotzdem führt der Kurs Schritt für Schritt in auch anspruchsvolle Anwendungsmöglichkeiten ein, mit denen sich Anwender die Power von SAS zunutze machen können:

    • Unterschiede zwischen der Programmierung mit SAS Base bzw. PROC SQL und mit SAS Makros.
    • Anfangs werden die wichtigsten SAS Makrovariablen vorgestellt.
    • Darauf aufbauend wird in die Programmierung von SAS Makroprogrammen eingeführt.
    • Anschliessend werden die wichtigsten Elemente der SAS Makrosprache (u.a. SAS Makro Funktionen, SAS Makro Statements und Schnittstellen) vorgestellt.
    • Zum Kursende hin werden durchaus komplexe SAS Makroprogramme designed, geschrieben, getestet und (gemeinsam) diskutiert.

    Steuerung

    Syntax

    Dauer
    2 Einheiten

    Kontakt
    Vorrütiweg 5 CH-6052 Hergiswil

    Switzerland

    Telefonnummer

    +41-78-4null68eins53

    E-Mail

    info@method-consult.de