Institut für Erziehungswissenschaft

Beschreibung des Kategoriensystems

Inhaltsverzeichnis


Sowohl in der Allgemeinen Didaktik, in Fachdidaktiken als auch in der Unterrichtsforschung und in der Lehr-Lern-Forschung gelten Aufgaben als zentrales Instrument des Unterrichts. Über Aufgaben wird der Unterricht geplant, realisiert, gesteuert, evaluiert und reflektiert. Aufgaben prägen damit in herausragender Weise das institutionalisierte Lernen in unserer Gesellschaft.

Seit etwa zehn Jahren wird in der Didaktik und der Unterrichtsforschung verstärkt die Bedeutung von Aufgaben für die Unterrichtsqualität hervorgehoben. Als Ausgangspunkt für die Diskussion um Aufgaben und Aufgabenkultur können die Befunde der Third International Science Studie (TIMSS) und hierbei vor allem die TIMS-Videostudie im Jahr 1997 angesehen werden. Im Rahmen der TIMS-Videostudie wurde Unterricht in Japan, den USA und Deutschland untersucht (Klieme, Schümer & Knoll, 2001). Für den deutschen Unterricht wies die TIMS-Videostudie ein vorherrschendes Muster des fragend-entwickelnden Unterrichts nach – deutsche Lehrkräfte scheinen in besonders kleinschrittiger Weise Sachverhalte zu erörtern, sie ‚zerlegen‘ Aufgaben und betonen dabei insbesondere das wiederholende bzw. nachvollziehende Üben. Seit dieser Erkenntnis werden Aufgaben insbesondere in Fachdidaktiken weiterentwickelt und untersucht, Lehrkräfte werden zu Aufgaben und einer ‚neuen‘ Aufgabenkultur fortgebildet. Eine besondere Rolle nehmen Aufgaben beispielsweise im Rahmen der Fortbildungsprogramme SINUS oder SINUS-Transfer ein, vorrangig in offenen, problemorientierten und alltagsnahen Formaten (Ostermeier, Prenzel & Duit, 2010).

Theoretische und empirische Studien zu Aufgaben werden derzeit in zahlreichen Fachdidaktiken, insbesondere in der Mathematik (z.B. Büchter & Leuders, 2005), in der Naturwissenschaft (z.B. Neumann et al., 2007), im Fremdsprachlichen Bereich (z.B. Timm, 1998, 221ff., 366ff; Weskamp, 2003, 109ff.) und im Bereich der Lesekompetenz (Bremerich-Voss, 2008; Köster, 2002, 2004) durchgeführt. Auch eine allgemeindidaktische Perspektive ist zunehmend erkennbar (Kiper, Meints, Peters, Schlump & Schmit, 2010; Kleinknecht, 2010; Maier, Kleinknecht, Metz & Bohl, 2010; Thonhauser, 2008).

Die besondere Rolle der Allgemeinen Didaktik bei der Entwicklung, Untersuchung und Analyse von Aufgaben liegt in den folgenden Bereichen:

Damit können fachdidaktische Analysen und Perspektiven auf Aufgaben in wertvoller Weise ergänzt und unterstützt werden.

Innerhalb der Allgemeinen Didaktik sind Aufgaben ein vergleichsweise kleines und junges Forschungsfeld. Nur sehr wenige theoretische oder empirische Studien wurden dazu in den vergangenen Jahrzehnten vorgelegt. In jüngster Zeit legten Blömeke et al (2006) einen allgemeindidaktischen Beitrag zur Klassifikation und Analyse von Aufgaben vor. Sie entwickelten auf der Grundlagen lernpsychologischer, motivationspsychologischer und allgemeindidaktischer Konzepte insgesamt neun übergreifende Kriterien für eine hohe Aufgabenqualität: Exemplarität; Ansprache von Schülerbedürfnissen; kognitive Prozesse und Wissensformen (nach Anderson et al. 2001); Neuigkeitswert; Chance auf Bewältigung; Potenzial zur Differenzierung; Authentizität der Aufgabensituation; Förderung der Problemlösefähigkeit; Möglichkeit sozialer Interaktion. Der Ansatz ist breit angelegt und gut begründet, allerdings noch wenig auflösend und zum Teil nur gering operationalisiert. Der Ansatz wurde in einer qualitativen Fallstudie (Gymnasium Kl. 11, Mathematik) erprobt.

Kategoriensysteme der Fachdidaktiken, insbesondere der Mathematikdidaktik sind elaborierter (z.B. Neubrand 2002; Jordan et al. 2006). Allerdings sind eher sehr forschungsorientiert und für den Alltag des Unterrichtens und für den Einsatz in der Lehrerbildung nur begrenzt geeignet. Lehrkräfte und Studierende aus unterschiedlichen Fächern können damit begrifflich und fachspezifisch nicht arbeiten.

Diese kurze Darstellung des Diskussionsstandes verdeutlicht ein Defizit: bisher ist kein überfachliches Kategoriensystem zur Analyse von Aufgaben erkennbar, mit dem Lehrkräfte und Studierende arbeiten und den Einsatz von Aufgaben reflektieren können.

Allgemeindidaktische und fachdidaktische Lernziel- und Klassifikationsschema (vgl. Tab. 1) wurden bereits vielfältig entwickelt.

Allgemeindidaktische Klassifikationsschema

Gagné (1969)

Taxonomie aufeinander aufbauender Lernarten

nach Signallernen, Reiz-Reaktions-Lernen, Kettenbildung, sprachliche Assoziation, multiple Diskriminiation, Begriffslernen, Regellernen, Problemlösen

Gagné, Briggs und Wager 1988

Klassifikation von Bereichen

Intellectual skills, cognitive strategies, verbal knowledge, motor skills, attitudes

Bloom et al. 1956

TEO

Kenntnisse, Verständnis, Anwendung, Analyse, Synthese, Bewertung

Deutscher Bildungsrat 1970

Vereinfachung der TEO

Reproduktion, Reorganisation, Transfer, Problemlösendes Denken

Anderson & Krathwohl 2001

Revidierte Bloom‘sche Taxonomie

Knowledge dimension (factual, conceptual, procedural, metacognitive) & Cognitive process dimension (remembering, understanding, applying, analyzing, evaluating, creating)

Biggs & Collis 1982

SOLO-Taxonomie

Prestructural, unistructural, multistructural, relational, extended abstract

KMK

Bildungsstandards

Reproduzieren, Zusammenhänge herstellen, Verallgemeinern und Reflektieren

Blömeke et al. 2006

Kognitive, motivationale, bildungstheor. Aspekte

Exemplarität; Schülerbedürfnisse; kognitive Prozesse und Wissensformen; Neuigkeitswert; Chance auf Bewältigung; Differenzierung; Authentizität; Förderung Problemlösefähigkeit; Möglichkeit sozialer Interaktion

Fachdidaktische Klassifikationsschema

Neubrand (2002)

TIMSS-Klassifikation Matheaufgaben

Aufgabenkern: Wissensart, Anzahl Wissenseinheiten, Aktivierung Wissenseinheiten, inner- oder außermathematischer Kontext, Stoffgebiet

Jordan et al. (2006)

COACTIV Klassifikation von Matheaufgaben

u.a. Modellierungskreislauf, Anzahl Lösungswege, math. Argumentieren, sprachlogische Komplexität

Jatzwauk (2007)

Aufgaben im Biologieunterricht

Sensomotorische Aufgaben, rezipierende Aufgaben, Exzerpieren und Darstellen ohne und mit Transformation, Reproduzieren, konvergentes Denken, divergentes Denken bzw. Bewerten

Schabram (2007)

Physikaufgaben

Wissensaufgaben, Verstehensaufgaben, Anwendungsaufgaben

Neumann et al. (2007)

Komplexitätsstufen im Modell für physikalische Kompetenz

Ein Fakt, mehrere Fakten, Zusammenhang, unverbundene Zusammenhänge, verbundene Zusammenhänge, übergeordnetes Konzept

Schlüter (2009)

Klassifikation von Informatikaufgaben

Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Wissensarten (Anderson & Krathwohl)

Tabelle 1: Allgemeindidaktische Lernziel- und Aufgabentaxonomien


Trotz zahlreicher Vorarbeiten sind mehrere Desiderata erkennbar: Notwendig ist ein recht sparsames, fächerübergreifendes Klassifikationssystem, d.h. eine überschaubare, auch im Schulalltag handhabbare Anzahl von Dimensionen und Ausprägungen. Der Fokus sollte dabei auf dem kognitiven Anforderungsniveau liegen in allgemeindidaktischer Hinsicht liegen, so dass das Kategoriensystem auch überfachlich genutzt werden kann. Gleichwohl sollte selbstredend ein unmittelbarer Bezug zu fachdidaktischen Kategoriensystemen vorhanden sein. Weitergehend ist wünschenswert, dass die analysierten Aufgaben in die sequentielle Struktur von Lehr-Lernprozessen einordenbar sind.

Vor dem Hintergrund dieser Überlegungen entstand unser Kategoriensystem. In diesem Abschnitt beschreiben wir die von uns entwickelten und optimierten Kategorien und Subkategorien zur Analyse von Aufgabenstellungen in unterschiedlichen Unterrichtsfächern und unterschiedlichen didaktischen Zusammenhängen. Mit sieben Dimensionen und jeweils drei bis vier Subkategorien soll das kognitive Potenzial von Lern- bzw. Diagnoseaufgaben analysiert werden. Tabelle 2 stellt die Dimensionen mit den jeweiligen Merkmalsausprägungen in der Übersicht dar. aus Maier ua. S. 17.

Dimension Ausprägungen
1. Wissensart Fakten Prozeduren Konzepte Metakognition
2. Kognitiver Prozess Reproduktion Naher Transfer Weiter Transfer Problemlösen
3. Wissenseinheiten Eine WE Bis zu 4 WE Mehr als 4 WE
4. Offenheit Definiert/konvergent Definiert/divergent Ungenau/divergent
5. Lebensweltbezug Kein Konstruiert Authentisch Real
6. Sprachlogische Kompl. Niedrig Mittel Hoch
7. Repräsentationsformen Eine Integration Transformation

Tabelle 2: Dimensionen und Ausprägungen der fächerübergreifenden Aufgabenanalyse



Die insgesamt sieben Dimensionen können wie folgt konkretisiert werden (die folgende Beschreibung der sieben Dimensionen ist wörtlich entnommen aus: Maier u.a. 2010, S. 28ff).

1. Wissensart

In weitgehender Übereinstimmung mit Anderson und Krathwohl (2001) halten wir die Art des durch eine Aufgabenstellung tangierten Wissens sowie die erforderlichen kognitiven Prozesse für die beiden wichtigsten Kategorien zur Analyse des kognitiven Potenzials. Hinzu kommt allerdings die Anzahl der aktivierten Wissenseinheiten (Neubrand 2002), weil diese zur Komplexitätssteigerung ebenfalls beiträgt und – im Gegensatz zur Bloomschen Taxonomie – eine Aufgabenstellung nicht mehrere, sondern auch unterschiedliche Wissenseinheiten (Faktenwissen und konzeptuelles Wissen) erforderlich machen kann.

Bei der Beschreibung verschiedener Wissensarten orientieren wir uns an der von Anderson und Krathwohl (2001) eingeführten Unterteilung in Faktenwissen, prozedurales Wissen, konzeptuelles Wissen und metakognitives Wissen. Diese Wissensklassen gehen auf lern- und kognitionspsychologische Befunde zum Aufbau und zur Speicherung von Wissen zurück und finden sich in ähnlicher Form auch bei Gagné et al. (1992) sowie in mathematikdidaktischen Aufgabenklassifikationen. Neubrand (2002) unterscheidet beispielsweise folgende Wissensarten: überwiegend prozedural/algorithmisches Wissen erforderlich, Faktenwissen erforderlich, überwiegend konzeptuelles/begriffliches Wissen erforderlich oder mehrere Wissensarten treten kombiniert auf.

Die vier Subkategorien sind nicht hierarchisch gestuft. Dies bedeutet, dass prinzipiell die Kategorisierung mehrerer Wissensklassen pro Aufgabe möglich ist (nicht disjunkt). Diese Problematik wird dann in der Dimension "Anzahl der Wissenseinheiten" analytisch bearbeitet.

2. Kognitive Prozesse

Wir sehen die hierarchische Stufung kognitiver Prozesse bei Anderson und Krathwohl (2001) in Anlehnung an die Bloomsche Lernzieltaxonomie weiterhin kritisch. Vor allem Trennschärfe und hierarchische Stufung nach kognitiver Komplexität sind fragwürdig. Problematisch sind nicht nur die oberen drei Stufen, sondern auch die Differenzierung zwischen "Verstehen" und "Anwendung". Verstehen ist das Einordnen neuer Informationen in vorhandene, begriffliche Strukturen; Operatoren für diesen kognitiven Prozess sind in der Regel: interpretieren, exemplifizieren, klassifizieren, zusammenfassen, folgern, vergleichen und erklären. Diese Kategorie ist wenig trennscharf und kann sehr unterschiedliche kognitive Prozesse umfassen; je nachdem wie komplex oder neuartig die zu verstehende Information ist, laufen ganz unterschiedliche kognitive Prozesse ab.

Ein ähnliches Problem ergibt sich bei der Kategorie Anwenden, beispielsweise beim Gebrauch von Prozeduren zur Übung oder zur Problemlösung. Entscheidend ist, ob die Schülerin bzw. der Schüler eine Prozedur sofort zur Verfügung hat, die er in diesem speziellen Fall anwenden kann oder nicht. Ist keine Prozedur für das Problem geeignet, muss eine bekannte Prozedur modifiziert werden, was einer kreativen Problemlösung, d.h. der höchsten Stufe gleichkommt (creating). Bei der Einordnung von Anwendungsaufgaben (Ausführen oder Implementieren) ist somit erstens Kontextinformation notwendig: Wurden bereits ähnliche Aufgaben behandelt oder handelt es sich um eine neuartige Anwendungsaufgabe? Und zweitens muss auch auf der Stufe der Anwendung die Weite des zu leistenden Transfers abgeschätzt werden.

Um diesen Schwierigkeiten zu entgehen, differenzieren wir zunächst zwischen Reproduktion und Transfer, um die Komplexität kognitiver Prozesse zu definieren (so beginnen auch Anderson et al. 2001, um die Stufung kognitiver Prozesse zu begründen). Transfer soll dabei auf alle Wissensarten bezogen werden. Nicht nur Prozeduren wie im TIMSS framework, auch Faktenwissen und konzeptuelles Wissen können zur Interpretation (Verstehen) von Informationen transferiert werden. Transfer lässt sich weiter untergliedern, je nachdem wie neuartig eine Situation ist, in der bereits verstandenes Wissen zum Einsatz kommen soll (naher Transfer, weiter Transfer, kreatives Problemlösen).

Die Subkategorien "weiter Transfer" und "kreatives Problemlösen" entsprechen der impliziten Aktivierung der Wissenseinheiten bei Neubrand (2002): Wissenseinheiten sind nicht direkt erwähnt, sondern müssen aus dem Aufgabenkontext erschlossen werden. Der Aufgabenlöser muss selbständig entscheiden, mit welchen Wissenseinheiten er arbeitet.

3. Anzahl der Wissenseinheiten

Die Dimension "Anzahl der Wissenseinheiten" ist nach Neubrand (2002, 95) ein Teilaspekt der Komplexität von Aufgaben. Um die für eine Aufgabe zu aktivierenden Wissenseinheiten bestimmen zu können, muss die Perspektive eines "Experten" eingenommen werden, der über das erforderliche fachspezifische Wissen verfügt. Dabei geht es nicht darum, wie ein Experte im Einzelfall die Aufgabe lösen würde, sondern welches Wissen unbedingt zur Lösung erforderlich ist. Eine Wissenseinheit repräsentiert dabei immer die hierarchisch oberste Ebene. Subprozeduren oder deklaratives Wissen auf unteren Ebenen werden der oberen Hierarchieebene zugeordnet und bilden eine Wissenseinheit. Eine Wissenseinheit ist damit verdichtetes Expertenwissen und kann als Objekt des Denkens bezeichnet werden.

Wissenseinheiten können unter Umständen mit Lösungsschritten gleichgesetzt werden. Bei einer Sachaufgabe müssen beispielsweise mehrere Modellierungsschritte nacheinander vorgenommen werden. Jedem Modellierungsschritt wird dann eine Rechenoperation zugeordnet (Multiplikation, Umwandeln von Maßeinheiten, etc.). Lösungsschritte und zu aktivierende Wissenseinheiten sind in diesem Fall identisch. Ein Gegenbeispiel wäre eine schriftliche Rechenaufgabe, die mehrere Schritte hin zur Lösung umfasst. Es wird jedoch nur ein Rechenalgorithmus auf der hierarchisch obersten Stufe aktiviert und somit liegt nur eine Wissenseinheit vor. Aus diesem Grund ist die Kategorie Wissenseinheit mit der im COACTIV-Projekt (Jordan et al. 2006) verwendeten Dimension "Umfang der Bearbeitung" bzw. "Anzahl der notwendigen Lösungsschritte" nur teilweise kompatibel. Allerdings orientieren wir uns aus pragmatischen Gründen an die hierarchische Abstufung dieser Kategorie:

4. Offenheit der Aufgabenstellung

In der Testpsychologie wird zwischen geschlossenen, halboffenen und offenen Items unterschieden (z.B. Rütter 1973). Geschlossene (multiple choice oder single choice) und halboffene Aufgabenformate haben genau eine richtige Lösung. Bei halboffenen Aufgabenformaten ist die Lösung jedoch nicht sichtbar und muss vom Schüler selbst produziert werden. Offene Aufgabenformate haben einen bestimmten Lösungsraum mit mehreren richtigen Lösungen. Auch die Unterscheidung zwischen konvergenten und divergenten Aufgaben beschreibt die Offenheit bzw. Geschlossenheit des Lösungsraums. Allerdings wird durch diese Aufgabendimensionen nicht die Offenheit der Aufgabenstellung selbst thematisiert, sondern nur die Offenheit des Lösungsraums. Um diesem Problem zu begegnen, bietet sich eine Analyse der Offenheit bzw. Geschlossenheit einer Aufgabe vor dem Hintergrund der aus der Problemlösepsychologie bekannten Beschreibung eines Problems durch Anfangszustand, Transformation und Zielzustand, an (z.B. Neubrand 2002; Greefrath 2004). Aufgaben lassen sich dahingehend einordnen, ob Anfangs- und Zielzustand sowie die dazwischen liegende Transformation jeweils eindeutig oder offen sind. D.h. nicht nur der Ziel- sondern auch der Anfangszustand kann mehr oder weniger offen bzw. geschlossen sein. Gibt es in der Aufgabe einen eindeutigen Arbeitsauftrag oder muss die Schülerin bzw. der Schüler selbst eine Fragestellung formulieren? Neubrand (2002) kombiniert damit acht verschiedene Aufgabenarten, je nachdem ob Ausgangszustand, Bearbeitung bzw. Zielzustand entweder vorgegeben oder gesucht sind. Grundaufgaben sind der einfachste Fall und der Normalfall im Unterricht: Ausgangszustand und Bearbeitung sind vorgegeben, der Zielzustand wird gesucht. Typische Sachaufgaben sind Bestimmungsaufgaben: Ausgangszustand ist gegeben, jedoch muss der Weg bereits gesucht werden. Bei Beweisaufgaben sind Ziel und Ausgangspunkt gegeben und der Weg muss gesucht bzw. begründet werden. Bei Umkehraufgaben ist der Ausgangszustand gesucht und Ziel bzw. Ziel und Weg sind vorgegeben. Wenn nichts vorgegeben ist, handelt es sich um Problemsituationen. Keine einzige Aufgabe der TIMSS-Videostudie konnte jedoch als Problemsituation klassifiziert werden. Diese sehr differenzierte Klassifikation scheint uns für die allgemeindidaktische Analyse zu wenig robust. Aus diesem Grund wurde sie auf drei Stufen der Offenheit reduziert. Dabei wird lediglich unterschieden, ob der Anfangszustand des zu lösenden Problems klar definiert ist oder nicht. Nimmt man die Unterscheidung zwischen konvergenten Aufgaben (eine Lösung) und divergenten Aufgaben (mehrere Lösungen) hinzu, ergeben sich durch logische Kombination drei Stufen der Offenheit:

5. Lebensweltbezug

Die Forderung nach einer stärkeren Verzahnung von schulischen Inhalten und Lebenswelt gibt es praktisch seit sich die Schule als Institution des Lernens außerhalb der Lebenswelt (Arbeits- und Familienwelt) durchgesetzt hat. Als Höhepunkt einer Kritik an der Lebensferne schulischen Lernens kann die Zeit der Reformpädagogik gelten. Seither wurde die Forderung nach mehr Lebensnähe und Authentizität schulischen Lernens in unterschiedlichen Traditions- und Theoriezusammenhängen immer wieder formuliert (z.B. situiertes Lernen). Der Lebensweltbezug ist damit auch eine ureigene Kategorie allgemeindidaktischen Denken, wie z.B. die Gegenwarts- und Zukunftsbedeutung bei Klafki (1958) oder als Qualitätskriterium für Aufgaben bei Blömeke et al. (2006). Auch im Rahmen der aktuellen Diskussion über Bildungsstandards und kompetenzorientierter Leistungsmessung spielt der Lebensweltbezug von Aufgaben eine wichtige Rolle. Beispielsweise ist Lebensweltbezug ein zentrales Gestaltungsprinzip bei PISA-Aufgaben. Man argumentiert, dass Kompetenzen nur in realitätsnahen Anwendungskontexten prüfbar sind. Im Gegenzug wird angenommen, dass Aufgaben mit realem oder zumindest konstruiertem Anwendungsbezug den Erwerb von Kompetenzen fördern können.

Neubrand (2002) schätzt mit der Analyse des Aufgabenkontextes den Grad der erforderlichen Vernetzung einer Mathematikaufgabe ein und unterscheidet zwischen allgemeinem und situativem Kontext. Der allgemeine Kontext kann außer- oder innermathematische Vernetzungen erforderlich machen, während Der situative Kontext vorgibt, welche Art von Zusammenhang in der Aufgabe mit dem Kontext herzustellen ist. Von Interesse für die Entwicklung einer allgemeindidaktischen Aufgabenanalyse ist der situative Kontext. Neubrand unterscheidet zwischen "real world", "scheinbar real world" und "measurement". Wir beziehen uns auf diese Unterscheidung und definieren Lebensweltbezug ebenfalls als Relation zwischen domänenspezifischem Fachwissen und Erfahrungs- und Lebenswelt des Schülers. Damit kommen wir zu vier unterschiedlichen Ausprägungen dieser Relation:

6. Sprachliche Komplexität

Die Dimension sprachlogische Komplexität trägt dazu bei, den komplexitätssteigernden Effekt der sprachlichen Formulierung einer Aufgabe zumindest ansatzweise zu berücksichtigen (Cohors-Fresenborg, Sjuts & Sommer 2004; Jordan et al. 2006). Die Fragestellung einer Aufgabe und auch die in der Aufgabe zur Verfügung gestellten Informationen bestehen in der Regel aus einem oder verschiedenen Texten. Von Bedeutung ist nun, inwiefern der sprachlogische Aufbau dieser Texte mit dem Inhalt der Aufgabe strukturgleich ist. Im COACTIV-Projekt wurde vor allem der strukturelle Zusammenhang zwischen mathematischer Modellierung und sprachlicher Darstellung der Situation untersucht. Die sprachlogische Komplexität einer Aufgabenstellung wird zum Beispiel erhöht, wenn die für eine mathematische Modellierung relevanten Teilaspekte nicht in der für eine Modellierung günstigen Reihenfolge im Text präsentiert werden. Ebenfalls führen zusätzliche Informationen, komplexe Satzgefüge oder Formulierungen, die durch die Authentizität einer Situation bedingt sind, zu einer Steigerung der sprachlogischen Komplexität einer Aufgabenstellung.

Wir denken, dass diese Dimension hilfreich ist, um auch in anderen Wissensdomänen den Zusammenhang zwischen Sprache und Logik der Aufgabenstellung zu analysieren. Für eine robuste Analyse reduzieren wir allerdings die Kategorienstufen auf drei Stufen statt vier wie bei Jordan et al. (2006):

7. Repräsentationsformen des Wissens

Die Art und Weise wie Wissen mental repräsentiert wird, ist ein zentrales Forschungsfeld der kognitiven Psychologie und geht auf die grundlegende Unterscheidung zwischen enaktiven, ikonischen und symbolischen Wissensrepräsentationen von Jerome Bruner zurück. Die kognitionspsychologische Literatur (z.B. Anderson 1989) unterscheidet mittlerweile zwischen verbaler/propositionaler und bildhafter/konkret-anschaulicher Kodierung. Edelmann (2000) differenziert noch etwas genauer zwischen aussagenartiger, analoger, handlungsmäßiger und multipler Repräsentation.

Diese unterschiedlichen Kodierungen bzw. Repräsentationen von Wissen können auf unterschiedliche Weise zur Lösung von Problemen bzw. Aufgaben beitragen. Vor allem die Transformation von Wissen von einer Repräsentationsform in eine andere (Bruner's intermodaler Transfer) gilt als wichtige Voraussetzung für die Bearbeitung komplexer Problemstellungen und generell als Anreiz für die kognitive Entwicklung. Die Folge dieser Transferleistungen sind multiple Wissensrepräsentationen, die zu einer größeren Behaltensleistung und einer flexibleren Anwendung von Wissen führen. Andererseits wird die Komplexität von Aufgaben enorm gesteigert, wenn Wissen in einer nicht üblichen Form dargestellt wird oder vom Schüler verlangt wird, Wissen in unterschiedlichen Repräsentationsformen entweder zu integrieren oder zu transformieren.

Analog argumentiert Neubrand (2002) bei der Begründung der Analysevariablen "Aufgabenpräsentation". Diese Dimension korrespondiert mit dem in der Mathematikdidaktik diskutierten Prinzip der Variation der Darstellung und dem kognitionspsychologischen Befunden über verschiedene mentale Repräsentationsformen. Wechsel der Repräsentationsformen trägt zu mentaler Beweglichkeit bei. Die Analysekategorien: Kommen Text und/oder Symbole vor? Enthält die Aufgabe Visualisierungen in Form von Bildern, Konstruktionen, etc.? Werden reale Gegenstände mit einbezogen? Evtl. Computerdarstellungen.

Um komplexitätssteigernde Wirkung der Repräsentationsformen des Wissens in einer Aufgabe genauer analysieren zu können, stellen wir zwei Fragen: Zunächst muss analysiert werden, in welcher Form das für die Aufgabenbearbeitung benötigte Wissen in der Aufgabe dem Schüler präsentiert wird? Möglich sind Texte (verschiedene Textsorten sollte man auch als unterschiedliche Repräsentationsformen bezeichnen: lineare, nicht-lineare Texte, Gesetzestexte, Lyrik, Fahrpläne, etc.), symbolische Darstellungen (Zeichen, Zahlen, Abkürzungen, etc.), auditive Informationen (gesprochene Sprache, Musik, Geräusche) und ikonische Darstellungen (Bilder, Grafiken, Zeichnungen, etc.). Darauf hin ist zu fragen in welcher Repräsentationsform das Wissen bearbeitet bzw. die Lösung erstellt werden muss? Die Beantwortung der beiden Fragen führt zu folgenden Kombinationsmöglichkeiten:

Das Kategoriensystem wurde und wird empirisch überprüft. Genauere Hinweise dazu finden Sie unter Projekte und in den bisherigen Veröffentlichungen.

Das Kategoriensystem ist öffentlich zugänglich und kann jederzeit angewandt werden. Wir sehen besondere Möglichkeiten des Einsatzes in folgenden Bereichen:

Wir sehen in diesem Kategoriensystem insbesondere die Möglichkeit einer fundierten, differenzierten und systematischen Auseinandersetzung mit schulischen Aufgaben, insofern verstehen wir als ein heuristisches Instrument für Lehrkräfte. Das Kategoriensystem gibt keine unmittelbare Antwort auf die Frage, ob damit die Qualität von Aufgaben untersucht werden kann.

Weitere Darstellungen finden Sie unter Publikationen.

Literatur (Auswahl)

Anderson, J. R. (1989). Kognitive Psychologie: eine Einführung (2. Aufl.). Heidelberg: Spektrum.

Anderson, L. W. & Krathwohl, D. R. (Hrsg.) (2001). A Taxonomy for Learning, Teaching and Assessing: A Revision of Bloom's Taxonomy of Educational Objectives. New York: Longman.

Arnold, K.-H. (2008). Bildung durch das Lösen von Aufgaben? Generalisierungsstrukturen der kategorialen Bildung aus der Perspektive der Lehr-Lernforschung. Vortrag auf dem 21. Kongress der DGfE, Kulturen der Bildung in Dresden, AG 18: Weiterentwicklung der Allgemeinen Didaktik (18.03.2008).

Baumert, J. & Lehmann, R. (1997). TIMSS - Mathematisch-naturwissenschaftlicher Unterricht im internationalen Vergleich. Deskriptive Ergebnisse. Opladen: Leske + Buderich.

Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. (1997). Gutachten zur Vorbereitung des Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Bonn: Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung.

Blömeke, S., Risse, J., Müller, C., Eichler, D. & Schulz, W. (2006): Analyse der Qualität von Aufgaben aus didaktischer und fachlicher Sicht. Ein allgemeines Modell und seine exemplarische Umsetzung im Unterrichtsfach Mathematik. Unterrichtswissenschaft, 34, 330-357.

Blömeke, S. & Müller, C. (2009). Zum Zusammenhang von Allgemeiner Didaktik und Lehr-Lernforschung im Unterrichtsgeschehen. Zeitschrift für Erziehungswissenschaft, 9 (Sonderheft „Perspektiven der Didaktik“ 239-258).

Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W.H. & Kratwohl, D. R. (1956). Taxonomy of educational objectives, Handbook 1: Cognitive domain. New York: McKay.

Blum, W. et al. (1999). TIMSS und der BLK-Modellversuch „SINUS“ in Hessen. Wiesbaden: Hessisches Landesinstitut für Pädagogik.

Bohl, T. (2004). Empirische Unterrichtsforschung und Allgemeine Didaktik. Ein prekäres Spannungsverhältnis und Folgerungen aus der PISA-Studie. Die Deutsche Schule, 96(4), 414-425.

Bohl, T. (2009). Offenen Unterricht weiterentwickeln. Mikroprozesse des Lernens berücksichtigen und Gesamtkonzeption optimieren. Pädagogik. 62(4), 6-10.

Bohl, T. & Kucharz, D. (2010). Offener Unterricht heute. Konzeptionelle und didaktische Weiterentwicklung. Weinheim und Basel: Beltz.

Bortz, J. & Döring, N. (2002). Forschungsmethoden und Evaluation. (3. Aufl.). Berlin: Springer.

Bremerich-Vos, Albert (2008). Benjamin S. Bloom (und andere) revisited. In A. Bremerich-Vos, D. Granzer & O. Köller, (Hrsg.), Lernstandsbestimmung im Fach Deutsch. Gute Aufgaben für den Unterricht (S. 29-49). Weinheim: Beltz.

Bromme, R., Seeger, F. & Steinbring, H. (1990). Aufgaben als Anforderungen an Lehrer und Schüler. Köln: Aulis Verlag Deubner & Co.

Brophy, J. & Good, T. L. (1986). Teacher behavior and student achievement. In M.C. Wittrock (Hrsg.), Handbook of research on teaching. (3.Aufl., S.328-375). New York: Macmillan Publishing Company.

Bruder, R. (2003). Konstruieren – Auswählen – Begleiten. Über den Umgang mit Aufgaben. Friedrich Jahresheft, XXI, 12-15.

Büchter, A. & Leuders, T. (2005). Mathematikaufgaben selbst entwickeln. Lernen fördern – Leistung überprüfen. Berlin: Cornelsen.

Clausen, M., Reusser, K. & Klieme, E. (2003). Unterrichtsqualität auf der Basis hoch-inferenter Unterrichtsbeurteilungen. Ein Vergleich zwischen Deutschland und der deutschsprachigen Schweiz. Unterrichtswissenschaft, 31(2), 122-141.

Cohors-Fresenborg, E., Sjuts, J. & Sommer, N. (2004). Komplexität von Denkvorgängen und Formalisierung von Wissen. In M. Neubrand (Hrsg.), Mathematische Kompetenzen von Schülerinnen und Schülern in Deutschland. Vertiefende Analysen im Rahmen von PISA 2000 (S. 109-144). Wiesbaden: VS Verlag für Sozialwissenschaften.

Deutscher Bildungsrat (Hrsg.) (1970). Strukturplan für das Bildungswesen. Stuttgart: Klett Verlag.

Doyle, W. (1992). Curriculum and Pedagogy. In P.W. Jackson (Hrsg.), Handbook of Research on Curriculum (S.486-516). New York: Macmillan Publishing Company.

Dubs, R. (1978). Aspekte des Lehrerverhaltens. Aarau: Sauerländer.

Edelmann, W. (2000). Lernpsychologie. Weinheim: Psychologie-Verlags Union.

Eikenbusch, G. (2005). Eine neue Aufgabenkultur im Deutschunterricht? Deutsch Extra. Das Magazin für den Deutschunterricht. Berlin: Cornelsen Verlag.

Fingerhut, K. (2004). Integrierte Unterrichtseinheiten als Kompetenzmodelle. In M. Kämper- van den Boogaart (Hrsg.), Deutschunterricht nach der PISA-Studie. Frankfurt am Main: Peter Lang.

Gagne, R. (1985). The Conditions of Learning (4Aufl.). New York: Holt, Rinehart & Winston.

Gagne, R., Briggs, L. & Wager, W. (1992). Principles of Instructional Design (4Aufl.). Fort Worth, TX: HBJ College Publishers.

Greefrath, G. (2004). Offene Aufgaben mit Realitätsbezug. Eine Übersicht mit Beispielen und erste Ergebnisse aus Fallstudien. mathematica didactica, 28(2), 16–38.

Harlen, W. & Winter, J. (2004). The development of assessment for learning: Learning from the case of science and mathematics. Language Testing, 21(3), 390-408.

Häußler, P. & Lind G. (1998). Weiterentwicklung der Aufgabenkultur im mathematisch-naturwissenschaftlichen Unterricht. Erläuterungen zu Modul 1 des BLK-Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Institut für die Pädagogik der Naturwissenschaften an der Universität Kiel (IPN)

Jatzwauk, P. (2007). Aufgaben im Biologieunterricht - eine Analyse der Merkmale und des didaktisch-methodischen Einsatzes von Aufgaben im Biologieunterricht. Berlin: Logos.

Jordan, A., Krauss, S., Löwen, K., Blum, W., Neubrand, M., Brunner, M. et al. (2008). Aufgaben im COACTIV-Projekt: Zeugnisse des kognitiven Aktivierungspotentials im deutschen Mathematikunterrichts. Journal für Mathematikdidaktik, 29(2), 83-107.

Jordan, A., Ross, N., Krauss, S., Baumert, J., Blum, W., Neubrand, M., Löwen, K., Brunner, M. & Kunter, M. (2006). Klassifikationsschema für Mathematikaufgaben: Dokumentation der Aufgabenkategorisierung im COACTIV-Projekt. Max-Planck-Institut für Bildungsforschung: Berlin.

Klafki, Wolfgang (1958). Didaktische Analyse als Kern der Unterrichtsvorbereitung. Die Deutsche Schule, 50, 450-471.

Kleinknecht, M. (2010). Aufgabenkultur. Baltmannsweiler: Schneider Verlag Hohengehren.

Klieme, E., & Bos, W. (2000). Mathematikleistung und mathematischer Unterricht in Deutschland und Japan: Triangulation qualitativer und quantitativer Analysen am Beispiel der TIMS-Studie. Zeitschrift für Erziehungswissenschaft, 3, 359-379.

Klieme, E., Schümer, G. & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung im internationalen Vergleich. In E. Klieme & J. Baumert, (Hrsg.), TIMSS – Impulse für Schule und Unterricht. Forschungsbefunde, Reforminitiativen, Praxisberichte und Video-Dokumente (43–57). Bonn: BMBF.

KMK (2003). Vereinbarung über Bildungsstandards für den Mittleren Schulabschluss (Jahrgangsstufe 10), Beschluss der Kultusministerkonferenz vom 04.12.2003

Knapp, Werner (Hrsg.) (2004): Deutschprofi A 2. Lese- und Sprachbuch für das 6. Schuljahr. München: Oldenbourg

Köster, J. (2004). Aufgabenkultur und Lesekompetenz. Deutschdidaktische Positionen. Frankfurt a.M.: Peter Lang.

Koskenniemi, M. & Komulainen, E. (1983). Lehrmaterial und Unterrichtsprozeß. Unterrichtswissenschaft 10, S. 4-26.

Kron, F. W. (2004). Grundwissen Didaktik (4. Aufl.). München: Ernst Reinhardt Verlag.

Krumm, V. (1985). Anmerkungen zur Rolle der Aufgaben in Didaktik, Unterricht und Unterrichtsforschung. Unterrichtswissenschaft, 13(2), 102-115

Kunter, M., Brunner, M., Baumert, J., Klusmann, U., Krauss, S., Blum, W., Jordan, A. & Neubrand, M. (2005). Der Mathematikunterricht der PISA -Schülerinnen und -Schüler. Schulformunterschiede in der Unterrichtsqualität. Zeitschrift für Erziehungswissenschaft, 8(4), 502-520.

Leuders, T. (2006). Kompetenzorientierte Aufgaben im Unterricht. In W. Blum, C. Drüke-Noe, R. Hartung, & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 81–95). Berlin: Cornelsen.

Lipowsky, F. (2002). Zur Qualität offener Lernsituationen im Spiegel empirischer Forschung - Auf die Mikroebene kommt es an. In U. Drews & W. Wallrabenstein (Hrsg.), Freiarbeit in der Grundschule, Offener Unterricht in Theorie, Forschung und Praxis (S. 126-159). Frankfurt am Main: Grundschulverband.

Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. Zeitschrift für Pädagogik, 51, 47-70, Beiheft.

Lowyck, J. (1976). Die Analyse des Fragenstellens als Instrument für ein abgestuftes Fertigkeitstraining. Unterrichtswissenschaft 1, 53-73.

Metz, K., Maier, U. & Kleinknecht, M. (2009). Kognitiver Anspruch von Aufgaben im Deutschunterricht. informationen zur deutschdidaktik (ide), 33(3), 74-87.

Mummendey, H. D. (1995). Die Fragebogenmethode. Göttingen: Hogrefe.

Neubrand, J. (2002). Eine Klassifikation mathematischer Aufgaben zur Analyse von Unterrichtssituationen: Selbsttätiges Arbeiten in Schülerarbeitsphasen in den Stunden der TIMSS-Video-Studie. Hildesheim: Verlag Franzbecker.

Rakoczy, K., Klieme, E., Bürgermeister, A. & Harks, B. (2008). The Interplay Between Student Evaluation and Instruction - Grading and Feedback in Mathematics Classrooms. Zeitschrift für Psychologie / Journal of Psychology 216(2), 111–124.

Reusser, K. (2009). Empirisch fundierte Didaktik – didaktisch fundierte Unterrichtsforschung. Eine Perspektive zur Neuorientierung der Allgemeinen Didaktik. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 219-237.

Rütter, T. (1973). Formen der Testaufgabe: Eine Einführung für didaktische Zwecke. München: Beck.

Schabram, K. (2007). Lernaufgaben im Unterricht: Instruktionspsychologische Analysen am Beispiel Physik. Dissertation am Fachbereich Bildungswissenschaften der Universität Duisburg-Essen.

Schnotz, W., Ballstaedt, S.-P. & Mandl, H. (1981). Kognitive Prozesse beim Zusammenfassen von Lehrtexten. In H. Mandl (Hrsg.), Zur Psychologie der Textverarbeitung. Ansätze, Befunde, Probleme (S. 108-167). München: Urban und Schwarzenberg.

Shavelson, R. J. & Webb, N. M. (1991). Generalizability theory: A primer. Newbury Park, CA: Sage.

Sjuts, J. (2006). Unterrichtliche Gestaltung und Nutzung kompetenzorientierter Aufgaben in diagnostischer Hinsicht. In W. Blum, C. Drüke-Noe, R. Hartung & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 96-112). Berlin: Cornelsen.

Sjuts, J. (2007). Kompetenzdiagnostik im Lernprozess - auf theoriegeleitete Aufgabenstellung und -auswertung kommt es an. mathematica didacta, 30(2), 33-52.

Stein, M. K., Grover, B. W. & Henningsen, M. (1996). Building student capacity for mathematical thinking and reasoning: An analysis of mathematical tasks used in reform classes. American Educational Research Journal, 33, 455-488.

Stigler, J. W. & Hiebert, J. (1997). Understanding and improving classroom mathematics instruction. An overview of the TIMSS video study. Phi-Delta-Kappan, 79, 14-21.

Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science 12, 257-285.

Terhart, E. (2002). Fremde Schwestern. Zum Verhaltnis von Allgemeiner Didaktik und empirischer Lehr-Lern-Forschung. Zeitschrift fur Padagogische Psychologie, 16, 77-86.

Terhart, E. (2009). Allgemeine Didaktik: Traditionen, Neuanfänge, Herausforderungen. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 13-34.

Tulodziecki, G., Herzig, B. & Blömeke, S. (2004). Gestaltung von Unterricht - Eine Einführung in die Didaktik. Bad Heilbrunn: Klinkhardt.

van Merrienboer, Jeroen J G., Clark, Richard E. & de Croock, Marcel B. M. (2002). Blueprints for complex learning: The 4C/ID-model. Educational Technology, Research and Development, 50(2), 39-64.

Wilson, J.W. (1971). Evaluation of Learning in Secondary School Mathematics. In B.S. Bloom, J.T. Hastings & G.F. Madaus (Hrsg.), Handbook on Formative and Summative Evaluation of Student Learning (S. 643-696). New York: McGraw-Hill, Inc.

Maier, U., Kleinknecht, M., & Metz, K. (2010). Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In H. Kiper, W. Meints, S. Peters, S. Schlump, & S. Schmit (Hrsg.), Schulpädagogik: Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht (S. 28–43). Stuttgart: Kohlhammer.