Beschreibung des Kategoriensystems

Inhaltsverzeichnis


Sowohl in der Allgemeinen Didaktik, in Fachdidaktiken als auch in der Unterrichtsforschung und in der Lehr-Lern-Forschung gelten Aufgaben als zentrales Instrument des Unterrichts. Über Aufgaben wird der Unterricht geplant, realisiert, gesteuert, evaluiert und reflektiert. Aufgaben prägen damit in herausragender Weise das institutionalisierte Lernen in unserer Gesellschaft.

Seit etwa zehn Jahren wird in der Didaktik und der Unterrichtsforschung verstärkt die Bedeutung von Aufgaben für die Unterrichtsqualität hervorgehoben. Als Ausgangspunkt für die Diskussion um Aufgaben und Aufgabenkultur können die Befunde der Third International Science Studie (TIMSS) und hierbei vor allem die TIMS-Videostudie im Jahr 1997 angesehen werden. Im Rahmen der TIMS-Videostudie wurde Unterricht in Japan, den USA und Deutschland untersucht (Klieme, Schümer & Knoll, 2001). Für den deutschen Unterricht wies die TIMS-Videostudie ein vorherrschendes Muster des fragend-entwickelnden Unterrichts nach – deutsche Lehrkräfte scheinen in besonders kleinschrittiger Weise Sachverhalte zu erörtern, sie ‚zerlegen‘ Aufgaben und betonen dabei insbesondere das wiederholende bzw. nachvollziehende Üben. Seit dieser Erkenntnis werden Aufgaben insbesondere in Fachdidaktiken weiterentwickelt und untersucht, Lehrkräfte werden zu Aufgaben und einer ‚neuen‘ Aufgabenkultur fortgebildet. Eine besondere Rolle nehmen Aufgaben beispielsweise im Rahmen der Fortbildungsprogramme SINUS oder SINUS-Transfer ein, vorrangig in offenen, problemorientierten und alltagsnahen Formaten (Ostermeier, Prenzel & Duit, 2010).

Theoretische und empirische Studien zu Aufgaben werden derzeit in zahlreichen Fachdidaktiken, insbesondere in der Mathematik (z.B. Büchter & Leuders, 2005), in der Naturwissenschaft (z.B. Neumann et al., 2007), im Fremdsprachlichen Bereich (z.B. Timm, 1998, 221ff., 366ff; Weskamp, 2003, 109ff.) und im Bereich der Lesekompetenz (Bremerich-Voss, 2008; Köster, 2002, 2004) durchgeführt. Auch eine allgemeindidaktische Perspektive ist zunehmend erkennbar (Kiper, Meints, Peters, Schlump & Schmit, 2010; Kleinknecht, 2010; Maier, Kleinknecht, Metz & Bohl, 2010; Thonhauser, 2008).

Die besondere Rolle der Allgemeinen Didaktik bei der Entwicklung, Untersuchung und Analyse von Aufgaben liegt in den folgenden Bereichen:

  • Allgemeine Didaktik reflektiert den bildungstheoretischen Gehalt von Aufgaben.
  • Allgemeine Didaktik kann Aufgaben in bildungswissenschaftlichen Bereichen des Professionalisierungsprozesses von Lehrkräften einbinden und damit eine grundlegende Qualifizierung und Reflexion einer ‚Aufgabenkultur‘ anbahnen.
  • Über bereits vorhandene Planungskonzepte kann ein Anschluss an die Unterrichtsplanung hergestellt werden (z.B. über Einbindung in das Perspektivenschema von Klafki 1996).
  • Eine Allgemeindidaktische Perspektive bietet eine wertvolle Verständnisplattform für Unterrichts- und Schulentwicklungsprozesse, in denen (Fach-)Lehrkräfte Standards für anspruchsvolle Lernumgebungen entwickeln, beispielsweise in Konzepten zum Umgang mit Heterogenität oder im individualisierten Unterricht.

Damit können fachdidaktische Analysen und Perspektiven auf Aufgaben in wertvoller Weise ergänzt und unterstützt werden.

Innerhalb der Allgemeinen Didaktik sind Aufgaben ein vergleichsweise kleines und junges Forschungsfeld. Nur sehr wenige theoretische oder empirische Studien wurden dazu in den vergangenen Jahrzehnten vorgelegt. In jüngster Zeit legten Blömeke et al (2006) einen allgemeindidaktischen Beitrag zur Klassifikation und Analyse von Aufgaben vor. Sie entwickelten auf der Grundlagen lernpsychologischer, motivationspsychologischer und allgemeindidaktischer Konzepte insgesamt neun übergreifende Kriterien für eine hohe Aufgabenqualität: Exemplarität; Ansprache von Schülerbedürfnissen; kognitive Prozesse und Wissensformen (nach Anderson et al. 2001); Neuigkeitswert; Chance auf Bewältigung; Potenzial zur Differenzierung; Authentizität der Aufgabensituation; Förderung der Problemlösefähigkeit; Möglichkeit sozialer Interaktion. Der Ansatz ist breit angelegt und gut begründet, allerdings noch wenig auflösend und zum Teil nur gering operationalisiert. Der Ansatz wurde in einer qualitativen Fallstudie (Gymnasium Kl. 11, Mathematik) erprobt.

Kategoriensysteme der Fachdidaktiken, insbesondere der Mathematikdidaktik sind elaborierter (z.B. Neubrand 2002; Jordan et al. 2006). Allerdings sind eher sehr forschungsorientiert und für den Alltag des Unterrichtens und für den Einsatz in der Lehrerbildung nur begrenzt geeignet. Lehrkräfte und Studierende aus unterschiedlichen Fächern können damit begrifflich und fachspezifisch nicht arbeiten.

Diese kurze Darstellung des Diskussionsstandes verdeutlicht ein Defizit: bisher ist kein überfachliches Kategoriensystem zur Analyse von Aufgaben erkennbar, mit dem Lehrkräfte und Studierende arbeiten und den Einsatz von Aufgaben reflektieren können.

Allgemeindidaktische und fachdidaktische Lernziel- und Klassifikationsschema (vgl. Tab. 1) wurden bereits vielfältig entwickelt.

Allgemeindidaktische Klassifikationsschema

Gagné (1969)

Taxonomie aufeinander aufbauender Lernarten

nach Signallernen, Reiz-Reaktions-Lernen, Kettenbildung, sprachliche Assoziation, multiple Diskriminiation, Begriffslernen, Regellernen, Problemlösen

Gagné, Briggs und Wager 1988

Klassifikation von Bereichen

Intellectual skills, cognitive strategies, verbal knowledge, motor skills, attitudes

Bloom et al. 1956

TEO

Kenntnisse, Verständnis, Anwendung, Analyse, Synthese, Bewertung

Deutscher Bildungsrat 1970

Vereinfachung der TEO

Reproduktion, Reorganisation, Transfer, Problemlösendes Denken

Anderson & Krathwohl 2001

Revidierte Bloom‘sche Taxonomie

Knowledge dimension (factual, conceptual, procedural, metacognitive) & Cognitive process dimension (remembering, understanding, applying, analyzing, evaluating, creating)

Biggs & Collis 1982

SOLO-Taxonomie

Prestructural, unistructural, multistructural, relational, extended abstract

KMK

Bildungsstandards

Reproduzieren, Zusammenhänge herstellen, Verallgemeinern und Reflektieren

Blömeke et al. 2006

Kognitive, motivationale, bildungstheor. Aspekte

Exemplarität; Schülerbedürfnisse; kognitive Prozesse und Wissensformen; Neuigkeitswert; Chance auf Bewältigung; Differenzierung; Authentizität; Förderung Problemlösefähigkeit; Möglichkeit sozialer Interaktion

Fachdidaktische Klassifikationsschema

Neubrand (2002)

TIMSS-Klassifikation Matheaufgaben

Aufgabenkern: Wissensart, Anzahl Wissenseinheiten, Aktivierung Wissenseinheiten, inner- oder außermathematischer Kontext, Stoffgebiet

Jordan et al. (2006)

COACTIV Klassifikation von Matheaufgaben

u.a. Modellierungskreislauf, Anzahl Lösungswege, math. Argumentieren, sprachlogische Komplexität

Jatzwauk (2007)

Aufgaben im Biologieunterricht

Sensomotorische Aufgaben, rezipierende Aufgaben, Exzerpieren und Darstellen ohne und mit Transformation, Reproduzieren, konvergentes Denken, divergentes Denken bzw. Bewerten

Schabram (2007)

Physikaufgaben

Wissensaufgaben, Verstehensaufgaben, Anwendungsaufgaben

Neumann et al. (2007)

Komplexitätsstufen im Modell für physikalische Kompetenz

Ein Fakt, mehrere Fakten, Zusammenhang, unverbundene Zusammenhänge, verbundene Zusammenhänge, übergeordnetes Konzept

Schlüter (2009)

Klassifikation von Informatikaufgaben

Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Wissensarten (Anderson & Krathwohl)

Tabelle 1: Allgemeindidaktische Lernziel- und Aufgabentaxonomien


Trotz zahlreicher Vorarbeiten sind mehrere Desiderata erkennbar: Notwendig ist ein recht sparsames, fächerübergreifendes Klassifikationssystem, d.h. eine überschaubare, auch im Schulalltag handhabbare Anzahl von Dimensionen und Ausprägungen. Der Fokus sollte dabei auf dem kognitiven Anforderungsniveau liegen in allgemeindidaktischer Hinsicht liegen, so dass das Kategoriensystem auch überfachlich genutzt werden kann. Gleichwohl sollte selbstredend ein unmittelbarer Bezug zu fachdidaktischen Kategoriensystemen vorhanden sein. Weitergehend ist wünschenswert, dass die analysierten Aufgaben in die sequentielle Struktur von Lehr-Lernprozessen einordenbar sind.

Vor dem Hintergrund dieser Überlegungen entstand unser Kategoriensystem. In diesem Abschnitt beschreiben wir die von uns entwickelten und optimierten Kategorien und Subkategorien zur Analyse von Aufgabenstellungen in unterschiedlichen Unterrichtsfächern und unterschiedlichen didaktischen Zusammenhängen. Mit sieben Dimensionen und jeweils drei bis vier Subkategorien soll das kognitive Potenzial von Lern- bzw. Diagnoseaufgaben analysiert werden. Tabelle 2 stellt die Dimensionen mit den jeweiligen Merkmalsausprägungen in der Übersicht dar. aus Maier ua. S. 17.

Dimension Ausprägungen
1. Wissensart Fakten Prozeduren Konzepte Metakognition
2. Kognitiver Prozess Reproduktion Naher Transfer Weiter Transfer Problemlösen
3. Wissenseinheiten Eine WE Bis zu 4 WE Mehr als 4 WE
4. Offenheit Definiert/konvergent Definiert/divergent Ungenau/divergent
5. Lebensweltbezug Kein Konstruiert Authentisch Real
6. Sprachlogische Kompl. Niedrig Mittel Hoch
7. Repräsentationsformen Eine Integration Transformation

Tabelle 2: Dimensionen und Ausprägungen der fächerübergreifenden Aufgabenanalyse



Die insgesamt sieben Dimensionen können wie folgt konkretisiert werden (die folgende Beschreibung der sieben Dimensionen ist wörtlich entnommen aus: Maier u.a. 2010, S. 28ff).

1. Wissensart

In weitgehender Übereinstimmung mit Anderson und Krathwohl (2001) halten wir die Art des durch eine Aufgabenstellung tangierten Wissens sowie die erforderlichen kognitiven Prozesse für die beiden wichtigsten Kategorien zur Analyse des kognitiven Potenzials. Hinzu kommt allerdings die Anzahl der aktivierten Wissenseinheiten (Neubrand 2002), weil diese zur Komplexitätssteigerung ebenfalls beiträgt und – im Gegensatz zur Bloomschen Taxonomie – eine Aufgabenstellung nicht mehrere, sondern auch unterschiedliche Wissenseinheiten (Faktenwissen und konzeptuelles Wissen) erforderlich machen kann.

Bei der Beschreibung verschiedener Wissensarten orientieren wir uns an der von Anderson und Krathwohl (2001) eingeführten Unterteilung in Faktenwissen, prozedurales Wissen, konzeptuelles Wissen und metakognitives Wissen. Diese Wissensklassen gehen auf lern- und kognitionspsychologische Befunde zum Aufbau und zur Speicherung von Wissen zurück und finden sich in ähnlicher Form auch bei Gagné et al. (1992) sowie in mathematikdidaktischen Aufgabenklassifikationen. Neubrand (2002) unterscheidet beispielsweise folgende Wissensarten: überwiegend prozedural/algorithmisches Wissen erforderlich, Faktenwissen erforderlich, überwiegend konzeptuelles/begriffliches Wissen erforderlich oder mehrere Wissensarten treten kombiniert auf.

Die vier Subkategorien sind nicht hierarchisch gestuft. Dies bedeutet, dass prinzipiell die Kategorisierung mehrerer Wissensklassen pro Aufgabe möglich ist (nicht disjunkt). Diese Problematik wird dann in der Dimension "Anzahl der Wissenseinheiten" analytisch bearbeitet.

  • Faktenwissen wird von Anderson und Krathwohl (2001) und auch Jordan et al. (2006) als verbalisierbares und für eine bestimmte Fachdomäne relevantes Wissen bezeichnet. Es handelt sich um ein "Wissen dass ..." im Vergleich zu "Wissen wie ..." (prozedurales Wissen). Gagné et al. (1992) sprechen explizit von "verbal knowledge" und weisen damit auf die Repräsentation dieses Wissens in propositionalen, d.h. aussagehaltigen kognitiven Netzwerken hin. Ebenfalls zeigt die Klassifizierung von Gagné et al. (1992), dass es Faktenwissen mit unterschiedlicher Komplexität gibt: Vom terminologischen Wissen (Bezeichnungen, Termini, labels) über die Kenntnis isolierter Fakten bis hin zu komplex vernetztem Faktenwissen (organized verbal knowledge). Wir verstehen unter Faktenwissen allerdings nur terminologisches Wissen und isolierte Fakten, weil letztendlich unklar ist, wie Gagné et al (1992) den Unterschied zwischen "organized verbal knowledge" und "conceptual knowledge" definieren. Sobald Fakten nicht mehr isoliert gespeichert sind, wird man es in Wissensdomänen automatisch mit Begriffsmustern bzw. Konzepten zu tun haben. Gagné würde beispielsweise Wissen über das Mittelalter als "organized verbal knowledge" bezeichnen. Sobald dieses Wissen unter dem Oberbegriff "Mittelalter" subsummiert werden kann, liegt allerdings ein fachspezifisches Konzept vor, das durch bestimmte Definitionen, Klassifikationen, etc. gekennzeichnet ist und vielfältige Querbeziehungen zu anderen Konzepten bzw. Faktenwissen aufweist. Begriffe basieren somit auf der Kenntnis von organisiertem Faktenwissen (vor allem terminologischem Wissen): z.B. Um das Konzept Bruchrechnung zu verstehen, muss eine Schüler bzw. ein Schüler wissen was Zähler und Nenner ist, was ein Bruch und eine Dezimalzahl ist, etc.

  • Prozedurales Wissen: Für Anderson und Krathwohl (2001) ist prozedurales Wissen implizites, d.h. nicht verbalisierbares Handlungswissen und geht von basalen Verhaltensweisen (Aussprache) bis zu komplexen Routinen und Handlungsmustern. Prozedurales Wissen lässt sich allerdings in deklaratives bzw. verbalisierbares Wissen dekomponieren (z.B. Aufschreiben wie Autofahren geht). Prozedurales Wissen bezieht sich auf bereichsspezifisch einschlägige Prozeduren (Algorithmen, Abläufe, Routinen, Fertigkeiten, Handlungen, Skripts) und ist damit von metakognitivem Wissen mit prozedurales Charakter (z.B. Lernstrategien) abgrenzbar. Prozeduren sind hierarchisch aufgebaut: komplexe Prozeduren mit zahlreichen Unterprozeduren sind möglich. Beispielsweise sind Fertigkeiten bei technischen Aufgaben, wie z.B. schriftliches Rechnen (Jordan et al. 2006) Grundlage für komplexere mathematische Prozeduren, wie z.B. Umwandeln von Maßeinheiten. Oder Wissen darüber, wie man einen bestimmten Typ von Text zu schreiben hat, lässt sich in einzelne Teilprozeduren bis hin zur korrekten Rechtschreibung zerlegen (Bremerich-Vos 2008). Bei der Analyse prozeduralen Wissens ist ebenfalls zu fragen, auf welche Objekten sie fokussieren, bzw. was manipuliert wird: Symbole, reale Gegenstände oder mentale Vorstellungen.

  • Konzeptuelles Wissen ist vielfach vernetztes Begriffswissen und kann sowohl verbalisiert als auch implizit vorliegen (Anderson et al. 2001; Gagné et al. 1992). Konzeptuelles Wissen ist domänenspezifisch und wird in Form von Klassifikationen, Prinzipien, Kategorien, Modellen oder Schemata sichtbar. Klassische Beispiele sind die Übersetzung einer Sachsituation in ein mathematisches Modell (inner- und außermathematisches Modellieren: Jordan et al. 2006) oder das Lösen von Aufgaben, die keinen Standardalgorithmen folgen. Im sprachlichen Bereich handelt es sich um Textsortenwissen oder die Klassifikation von Wortarten (Bremerich-Vos 2008). Konzeptuelles Wissen ist die Grundlage für bedeutungsvolles und vertieftes Verständnis von fachspezifischen Inhalten (im Vergleich zum reinen Auswendiglernen von Fakten oder Anwenden einfacher Algorithmen). Konzeptuelles Wissen ermöglicht ebenfalls den kumulativen Wissensaufbau innerhalb einer Fachdomäne. Lernende können Beziehungen zwischen bereits vorhandenen Wissenseinheiten oder zwischen vorhandenen Wissenseinheiten und neuen Informationen herstellen.

  • Metakognitives Wissen ist Wissen über die eigenen Kognitionen (eigene Lernziele, Lerngewohnheiten, usw.) und die Fähigkeit, den eigenen Lernprozess zu steuern (Monitoringstrategien) sowie Informationsverarbeitungsstrategien und Problemlösestrategien gezielt anwenden zu können (Anderson et al. 2001). Bremerich-Vos (2008) weist als Beispiel auf strategisches Wissen für den Leseprozess hin: Schülerinnen und Schüler sollten wissen, warum sie einen Text lesen oder was man tun kann, wenn man eine Textpassage nicht verstanden hat. Metakognitives Wissen wird gefördert, wenn Lernende aufgefordert oder angeregt werden, das Ergebnis einer Aufgabe selbst zu kontrollieren.

2. Kognitive Prozesse

Wir sehen die hierarchische Stufung kognitiver Prozesse bei Anderson und Krathwohl (2001) in Anlehnung an die Bloomsche Lernzieltaxonomie weiterhin kritisch. Vor allem Trennschärfe und hierarchische Stufung nach kognitiver Komplexität sind fragwürdig. Problematisch sind nicht nur die oberen drei Stufen, sondern auch die Differenzierung zwischen "Verstehen" und "Anwendung". Verstehen ist das Einordnen neuer Informationen in vorhandene, begriffliche Strukturen; Operatoren für diesen kognitiven Prozess sind in der Regel: interpretieren, exemplifizieren, klassifizieren, zusammenfassen, folgern, vergleichen und erklären. Diese Kategorie ist wenig trennscharf und kann sehr unterschiedliche kognitive Prozesse umfassen; je nachdem wie komplex oder neuartig die zu verstehende Information ist, laufen ganz unterschiedliche kognitive Prozesse ab.

Ein ähnliches Problem ergibt sich bei der Kategorie Anwenden, beispielsweise beim Gebrauch von Prozeduren zur Übung oder zur Problemlösung. Entscheidend ist, ob die Schülerin bzw. der Schüler eine Prozedur sofort zur Verfügung hat, die er in diesem speziellen Fall anwenden kann oder nicht. Ist keine Prozedur für das Problem geeignet, muss eine bekannte Prozedur modifiziert werden, was einer kreativen Problemlösung, d.h. der höchsten Stufe gleichkommt (creating). Bei der Einordnung von Anwendungsaufgaben (Ausführen oder Implementieren) ist somit erstens Kontextinformation notwendig: Wurden bereits ähnliche Aufgaben behandelt oder handelt es sich um eine neuartige Anwendungsaufgabe? Und zweitens muss auch auf der Stufe der Anwendung die Weite des zu leistenden Transfers abgeschätzt werden.

Um diesen Schwierigkeiten zu entgehen, differenzieren wir zunächst zwischen Reproduktion und Transfer, um die Komplexität kognitiver Prozesse zu definieren (so beginnen auch Anderson et al. 2001, um die Stufung kognitiver Prozesse zu begründen). Transfer soll dabei auf alle Wissensarten bezogen werden. Nicht nur Prozeduren wie im TIMSS framework, auch Faktenwissen und konzeptuelles Wissen können zur Interpretation (Verstehen) von Informationen transferiert werden. Transfer lässt sich weiter untergliedern, je nachdem wie neuartig eine Situation ist, in der bereits verstandenes Wissen zum Einsatz kommen soll (naher Transfer, weiter Transfer, kreatives Problemlösen).

  • Reproduktionsaufgaben machen eine Erinnerungsleistung erforderlich. Für Anderson und Krathwohl (2001) bedeutet Reproduktion den Abruf von Wissen aus dem Langzeitgedächtnis in einer Form, in der es auch eingespeichert wurde. Diese Reproduktionsleistung kann sich auf alle vier Wissensarten beziehen, nicht nur auf das Erinnern von Faktenwissen (Bremerich-Vos 2008, S. 35). Bei der Reproduktion von Prozeduren ist die Aufgabe so angelegt, dass Lernende eine Handlung nachahmen sollen. Konzeptuelles Wissen wird reproduziert, wenn Schülerinnen und Schüler eine Begriffsdefinition wiedergeben können. Metakognitives Wissen wird reproduziert, wenn beispielsweise eine Lernstrategie in einem bekannten Zusammenhang noch einmal nachvollzogen wird.

  • Naher Transfer liegt dann vor, wenn sich die Aufgabensituation nur geringfügig von bereits bekannten oder geübten Aufgaben bzw. von der Lernsituation unterscheiden. Für die Abschätzung der Differenz zwischen Aufgaben- und Lernsituation sind verschiedene Hinweise denkbar. Beispielsweise kann die Aufgabe so gestellt sein (mit entsprechenden Hinweisen), dass dem Schüler klar ist, welches Wissen (ob Prozeduren, Faktenwissen oder Konzepte) für die Aufgabenlösung zur Anwendung kommen sollte. Die Aufgabe gibt den Schülerinnen und Schülern beispielsweise genaue Handlungsvorgaben. Sie sollen ein Prinzip anwenden, unter Rückgriff auf Vorwissen, das in der Aufgabe explizit genannt wird. Ein weiteres Erkennungsmerkmal ist das kleinschrittige Ausführen von Verfahren und Algorithmen (z.B. schrittweises Vorgehen bei Dreisatzaufgaben).

  • Aufgaben mit weitem Transfer erfordern die Anwendung von Wissen in einer neuen, unbekannten Situation. Zudem ist für die Lernenden nicht unbedingt sofort einsichtig, welches Wissen zur Anwendung kommen sollte. Das vorhandene Wissen muss nach Prinzipien, Regeln, Lernstrategien etc. durchsucht werden, die sich auf die Aufgabe anwenden lassen. Im Vergleich zur nächsten Stufe (kreatives Problemlösen) ist das Wissen allerdings in der Form vorhanden bzw. leicht abrufbar, in der es zur Anwendung kommen sollte. Beispielsweise, wenn bei einer unbekannten Sachaufgabe das Problem verstanden wurde, können bekannte Konzepte oder Algorithmen zur Lösung herangezogen werden.

  • Die Subkategorie "kreatives Problemlösen" lässt sich von den Transferaufgaben abgrenzen. Während bei Reproduktion sowie nahem und weitem Transfer das Wissen bereits in der Form vorhanden ist, wie es in der Aufgabe zur Anwendung kommen soll, sind Aufgaben denkbar, bei denen zunächst einmal neues Wissen geschaffen werden muss, um eine Aufgabe lösen zu können. Die Kognitionspsychologie konnte zeigen, dass bei solchen Problemlöseaufgaben das vorhandene Wissen sogar ein Hindernis darstellen kann (z.B. funktionale Fixierung, vgl. Anderson 1989). Allenfalls können bestimmte Problemlöseheuristiken genutzt werden. Die Subkategorie kreative Problemlöseaufgaben deckt im Wesentlichen die oberste Stufe der Dimension kognitive Prozesse bei Anderson et al. (2001) ab: Erschaffen (create). Es handelt sich um Aufgaben, die vom Schüler eine kreative Leistung, d.h. das Zusammenfügen vorhandener Elemente verlangen, sodass neues Wissen entsteht, das für die Lösung der Aufgabe erforderlich ist.

Die Subkategorien "weiter Transfer" und "kreatives Problemlösen" entsprechen der impliziten Aktivierung der Wissenseinheiten bei Neubrand (2002): Wissenseinheiten sind nicht direkt erwähnt, sondern müssen aus dem Aufgabenkontext erschlossen werden. Der Aufgabenlöser muss selbständig entscheiden, mit welchen Wissenseinheiten er arbeitet.

3. Anzahl der Wissenseinheiten

Die Dimension "Anzahl der Wissenseinheiten" ist nach Neubrand (2002, 95) ein Teilaspekt der Komplexität von Aufgaben. Um die für eine Aufgabe zu aktivierenden Wissenseinheiten bestimmen zu können, muss die Perspektive eines "Experten" eingenommen werden, der über das erforderliche fachspezifische Wissen verfügt. Dabei geht es nicht darum, wie ein Experte im Einzelfall die Aufgabe lösen würde, sondern welches Wissen unbedingt zur Lösung erforderlich ist. Eine Wissenseinheit repräsentiert dabei immer die hierarchisch oberste Ebene. Subprozeduren oder deklaratives Wissen auf unteren Ebenen werden der oberen Hierarchieebene zugeordnet und bilden eine Wissenseinheit. Eine Wissenseinheit ist damit verdichtetes Expertenwissen und kann als Objekt des Denkens bezeichnet werden.

Wissenseinheiten können unter Umständen mit Lösungsschritten gleichgesetzt werden. Bei einer Sachaufgabe müssen beispielsweise mehrere Modellierungsschritte nacheinander vorgenommen werden. Jedem Modellierungsschritt wird dann eine Rechenoperation zugeordnet (Multiplikation, Umwandeln von Maßeinheiten, etc.). Lösungsschritte und zu aktivierende Wissenseinheiten sind in diesem Fall identisch. Ein Gegenbeispiel wäre eine schriftliche Rechenaufgabe, die mehrere Schritte hin zur Lösung umfasst. Es wird jedoch nur ein Rechenalgorithmus auf der hierarchisch obersten Stufe aktiviert und somit liegt nur eine Wissenseinheit vor. Aus diesem Grund ist die Kategorie Wissenseinheit mit der im COACTIV-Projekt (Jordan et al. 2006) verwendeten Dimension "Umfang der Bearbeitung" bzw. "Anzahl der notwendigen Lösungsschritte" nur teilweise kompatibel. Allerdings orientieren wir uns aus pragmatischen Gründen an die hierarchische Abstufung dieser Kategorie:

  • Aufgaben mit einer Wissenseinheit: Es wird beispielsweise nach einer einzigen Bezeichnung (Teriminus), einem Fakt oder Datum gefragt. Oder auf konzeptueller Ebene soll ein Fachbegriff erklärt werden (z.B. Was versteht man unter Langzeitgedächtnis?). Es kommt eine bestimmte Prozedur zur Anwendung.

  • Aufgaben mit bis zu vier Wissenseinheiten: Im Bereich Arithmetik gibt es viele Rechenaufgaben, die mit mehr als einer Rechenprozedur zu lösen sind (z.B. 10,5 * 14 + 17,3). Auch Aufgaben, die eine Kombination von konzeptuellem Wissen und Faktenwissen erforderlich machen, sind hier denkbar.

  • Aufgaben mit mehr als vier Wissenseinheiten sind wenig anspruchsvoll, wenn sie sich z.B. auf der Ebene des Faktenwissens oder des prozeduralen Wissens bewegen. Beispielsweise wenn sehr viele Jahreszahlen für bestimmte historische Ereignisse in einer Epoche abgefragt werden, sind sehr schnell mehr als vier voneinander isolierte Wissenseinheiten zu aktivieren. Dabei handelt es sich jedoch vorwiegend um eine Gedächtnisleistung. Komplexer wird es dann, wenn verschiedene Prozeduren und Konzepte zu kombinieren sind. Dies ist beispielsweise bei Aufgaben zur Textproduktion der Fall. Hier gilt es Textsortenwissen mit Faktenwissen und grammatikalischem bzw. Rechtschreibwissen zu kombinieren.

4. Offenheit der Aufgabenstellung

In der Testpsychologie wird zwischen geschlossenen, halboffenen und offenen Items unterschieden (z.B. Rütter 1973). Geschlossene (multiple choice oder single choice) und halboffene Aufgabenformate haben genau eine richtige Lösung. Bei halboffenen Aufgabenformaten ist die Lösung jedoch nicht sichtbar und muss vom Schüler selbst produziert werden. Offene Aufgabenformate haben einen bestimmten Lösungsraum mit mehreren richtigen Lösungen. Auch die Unterscheidung zwischen konvergenten und divergenten Aufgaben beschreibt die Offenheit bzw. Geschlossenheit des Lösungsraums. Allerdings wird durch diese Aufgabendimensionen nicht die Offenheit der Aufgabenstellung selbst thematisiert, sondern nur die Offenheit des Lösungsraums. Um diesem Problem zu begegnen, bietet sich eine Analyse der Offenheit bzw. Geschlossenheit einer Aufgabe vor dem Hintergrund der aus der Problemlösepsychologie bekannten Beschreibung eines Problems durch Anfangszustand, Transformation und Zielzustand, an (z.B. Neubrand 2002; Greefrath 2004). Aufgaben lassen sich dahingehend einordnen, ob Anfangs- und Zielzustand sowie die dazwischen liegende Transformation jeweils eindeutig oder offen sind. D.h. nicht nur der Ziel- sondern auch der Anfangszustand kann mehr oder weniger offen bzw. geschlossen sein. Gibt es in der Aufgabe einen eindeutigen Arbeitsauftrag oder muss die Schülerin bzw. der Schüler selbst eine Fragestellung formulieren? Neubrand (2002) kombiniert damit acht verschiedene Aufgabenarten, je nachdem ob Ausgangszustand, Bearbeitung bzw. Zielzustand entweder vorgegeben oder gesucht sind. Grundaufgaben sind der einfachste Fall und der Normalfall im Unterricht: Ausgangszustand und Bearbeitung sind vorgegeben, der Zielzustand wird gesucht. Typische Sachaufgaben sind Bestimmungsaufgaben: Ausgangszustand ist gegeben, jedoch muss der Weg bereits gesucht werden. Bei Beweisaufgaben sind Ziel und Ausgangspunkt gegeben und der Weg muss gesucht bzw. begründet werden. Bei Umkehraufgaben ist der Ausgangszustand gesucht und Ziel bzw. Ziel und Weg sind vorgegeben. Wenn nichts vorgegeben ist, handelt es sich um Problemsituationen. Keine einzige Aufgabe der TIMSS-Videostudie konnte jedoch als Problemsituation klassifiziert werden. Diese sehr differenzierte Klassifikation scheint uns für die allgemeindidaktische Analyse zu wenig robust. Aus diesem Grund wurde sie auf drei Stufen der Offenheit reduziert. Dabei wird lediglich unterschieden, ob der Anfangszustand des zu lösenden Problems klar definiert ist oder nicht. Nimmt man die Unterscheidung zwischen konvergenten Aufgaben (eine Lösung) und divergenten Aufgaben (mehrere Lösungen) hinzu, ergeben sich durch logische Kombination drei Stufen der Offenheit:

  • Definierte und konvergente Aufgaben haben einen eindeutigen Arbeitsauftrag bzw. eine klar identifizierbare Fragestellung. Eine Lösung ist gesucht bzw. richtig. Wobei die richtige Lösung nicht unbedingt sichtbar sein muss (nur bei Aufgaben mit Mehrfachwahlantworten).

  • Definierte und divergente Aufgaben haben einen eindeutigen Arbeitsauftrag bzw. eine klar identifizierbare Fragestellung. Allerdings sind mehrere Lösungen (bzw. Lösungswege) denkbar bzw. gesucht. In der Regel werden die Lernenden auf diesen Umstand hingewiesen (als Teil des eindeutigen Arbeitsauftrags).

  • Schlecht definierte und divergente Aufgaben geben dem Schüler Informationen über ein Problem bzw. eine Situation. Allerdings wird keine klare Frage gestellt oder kein Arbeitsauftrag gegeben. Die Situation impliziert unterschiedliche Fragestellungen. Die Problemsituation an sich ist die "Handlungsaufforderung". Damit sind auch automatisch mehrere Lösungen (bzw. Lösungswege) denkbar bzw. richtig.

5. Lebensweltbezug

Die Forderung nach einer stärkeren Verzahnung von schulischen Inhalten und Lebenswelt gibt es praktisch seit sich die Schule als Institution des Lernens außerhalb der Lebenswelt (Arbeits- und Familienwelt) durchgesetzt hat. Als Höhepunkt einer Kritik an der Lebensferne schulischen Lernens kann die Zeit der Reformpädagogik gelten. Seither wurde die Forderung nach mehr Lebensnähe und Authentizität schulischen Lernens in unterschiedlichen Traditions- und Theoriezusammenhängen immer wieder formuliert (z.B. situiertes Lernen). Der Lebensweltbezug ist damit auch eine ureigene Kategorie allgemeindidaktischen Denken, wie z.B. die Gegenwarts- und Zukunftsbedeutung bei Klafki (1958) oder als Qualitätskriterium für Aufgaben bei Blömeke et al. (2006). Auch im Rahmen der aktuellen Diskussion über Bildungsstandards und kompetenzorientierter Leistungsmessung spielt der Lebensweltbezug von Aufgaben eine wichtige Rolle. Beispielsweise ist Lebensweltbezug ein zentrales Gestaltungsprinzip bei PISA-Aufgaben. Man argumentiert, dass Kompetenzen nur in realitätsnahen Anwendungskontexten prüfbar sind. Im Gegenzug wird angenommen, dass Aufgaben mit realem oder zumindest konstruiertem Anwendungsbezug den Erwerb von Kompetenzen fördern können.

Neubrand (2002) schätzt mit der Analyse des Aufgabenkontextes den Grad der erforderlichen Vernetzung einer Mathematikaufgabe ein und unterscheidet zwischen allgemeinem und situativem Kontext. Der allgemeine Kontext kann außer- oder innermathematische Vernetzungen erforderlich machen, während Der situative Kontext vorgibt, welche Art von Zusammenhang in der Aufgabe mit dem Kontext herzustellen ist. Von Interesse für die Entwicklung einer allgemeindidaktischen Aufgabenanalyse ist der situative Kontext. Neubrand unterscheidet zwischen "real world", "scheinbar real world" und "measurement". Wir beziehen uns auf diese Unterscheidung und definieren Lebensweltbezug ebenfalls als Relation zwischen domänenspezifischem Fachwissen und Erfahrungs- und Lebenswelt des Schülers. Damit kommen wir zu vier unterschiedlichen Ausprägungen dieser Relation:

  • Aufgaben ohne Lebensweltbezug: In der Aufgabenstellung wird keine Verknüpfung zwischen Fachwissen und Erfahrungswelt der Schülerinnen und Schüler vorgegeben oder gefordert.

  • Aufgaben mit konstruiertem Lebensweltbezug: In der Aufgabenstellung wird eine Verknüpfung zwischen Fachwissen und einer stark konstruierten Lebenswelt (entspricht eher nicht den Erfahrungen des Schülers; Analogien zur eigenen Erfahrung kaum erkennbar) vorgegeben oder gefordert. Der Lebensweltbezug wirkt "aufgesetzt", "an den Haaren herbeigezogen" oder hat nur die Aufgabe, den Umgang mit Fachwissen einzukleiden oder zu rechtfertigen. Ein klassisches Beispiel hierfür sind eingekleidete Sachaufgaben in Mathematik.

  • Aufgaben mit konstruiertem, aber authentisch wirkendem Lebensweltbezug: Der Lebensweltbezug ist zwar konstruiert, macht im Zusammenhang der Aufgabe aber Sinn und wirkt damit zumindest authentisch. Die Aufgabenstellung reflektiert den Erfahrungshorizont eines typischen Schülers. Beispielsweise werden sinnvolle Anwendungen von Fachwissen im Alltag oder im Berufsleben in die Aufgabe eingebunden.

  • Bei Aufgaben mit realem Lebensweltbezug geht die Differenz zwischen Aufgabe und Lebenswelt bzw. Schule und eigener Erfahrungswelt gegen Null. Die Schülerinnen und Schüler beschäftigen sich mit einer Problemstellung, die tatsächlich auch gelöst werden muss (nicht nur fiktive Übung, Hausaufgabe oder Testaufgabe). Typische Beispiele wären die Vorbereitung einer Klassenfahrt, das Führen eines Klassenkontos oder die Vorbereitung von Bewerbungsschreiben.

6. Sprachliche Komplexität

Die Dimension sprachlogische Komplexität trägt dazu bei, den komplexitätssteigernden Effekt der sprachlichen Formulierung einer Aufgabe zumindest ansatzweise zu berücksichtigen (Cohors-Fresenborg, Sjuts & Sommer 2004; Jordan et al. 2006). Die Fragestellung einer Aufgabe und auch die in der Aufgabe zur Verfügung gestellten Informationen bestehen in der Regel aus einem oder verschiedenen Texten. Von Bedeutung ist nun, inwiefern der sprachlogische Aufbau dieser Texte mit dem Inhalt der Aufgabe strukturgleich ist. Im COACTIV-Projekt wurde vor allem der strukturelle Zusammenhang zwischen mathematischer Modellierung und sprachlicher Darstellung der Situation untersucht. Die sprachlogische Komplexität einer Aufgabenstellung wird zum Beispiel erhöht, wenn die für eine mathematische Modellierung relevanten Teilaspekte nicht in der für eine Modellierung günstigen Reihenfolge im Text präsentiert werden. Ebenfalls führen zusätzliche Informationen, komplexe Satzgefüge oder Formulierungen, die durch die Authentizität einer Situation bedingt sind, zu einer Steigerung der sprachlogischen Komplexität einer Aufgabenstellung.

Wir denken, dass diese Dimension hilfreich ist, um auch in anderen Wissensdomänen den Zusammenhang zwischen Sprache und Logik der Aufgabenstellung zu analysieren. Für eine robuste Analyse reduzieren wir allerdings die Kategorienstufen auf drei Stufen statt vier wie bei Jordan et al. (2006):

  • Aufgaben mit einfacher sprachlogischer Komplexität: Kein oder kaum Text vorhanden; die Reihenfolge der Sätze entspricht der Aufgabenbearbeitung; es werden einfache Haupt- und Nebensätze verwendet

  • Aufgaben mit mittlerer sprachlogischer Komplexität: Die Reihenfolge der Sätze entspricht nicht immer der Aufgabenbearbeitung; es gibt Textpassagen mit irrelevanter Information und komplexeren Satzgefügen

  • Aufgaben mit hoher sprachlogischer Komplexität: Die Reihenfolge der Sätze entspricht nicht der Aufgabenbearbeitung; die sprachliche Form der Aufgabe verdeckt zum Teil die inneren, logischen Bezüge der Aufgabe; im Aufgabentext kommen irritierende Formulierungen und komplexe Satzgefüge zur Anwendung, z.B. logische Funktionen, doppelte Verneinungen, wenn-dann Verknüpfungen, Allaussagen.

7. Repräsentationsformen des Wissens

Die Art und Weise wie Wissen mental repräsentiert wird, ist ein zentrales Forschungsfeld der kognitiven Psychologie und geht auf die grundlegende Unterscheidung zwischen enaktiven, ikonischen und symbolischen Wissensrepräsentationen von Jerome Bruner zurück. Die kognitionspsychologische Literatur (z.B. Anderson 1989) unterscheidet mittlerweile zwischen verbaler/propositionaler und bildhafter/konkret-anschaulicher Kodierung. Edelmann (2000) differenziert noch etwas genauer zwischen aussagenartiger, analoger, handlungsmäßiger und multipler Repräsentation.

Diese unterschiedlichen Kodierungen bzw. Repräsentationen von Wissen können auf unterschiedliche Weise zur Lösung von Problemen bzw. Aufgaben beitragen. Vor allem die Transformation von Wissen von einer Repräsentationsform in eine andere (Bruner's intermodaler Transfer) gilt als wichtige Voraussetzung für die Bearbeitung komplexer Problemstellungen und generell als Anreiz für die kognitive Entwicklung. Die Folge dieser Transferleistungen sind multiple Wissensrepräsentationen, die zu einer größeren Behaltensleistung und einer flexibleren Anwendung von Wissen führen. Andererseits wird die Komplexität von Aufgaben enorm gesteigert, wenn Wissen in einer nicht üblichen Form dargestellt wird oder vom Schüler verlangt wird, Wissen in unterschiedlichen Repräsentationsformen entweder zu integrieren oder zu transformieren.

Analog argumentiert Neubrand (2002) bei der Begründung der Analysevariablen "Aufgabenpräsentation". Diese Dimension korrespondiert mit dem in der Mathematikdidaktik diskutierten Prinzip der Variation der Darstellung und dem kognitionspsychologischen Befunden über verschiedene mentale Repräsentationsformen. Wechsel der Repräsentationsformen trägt zu mentaler Beweglichkeit bei. Die Analysekategorien: Kommen Text und/oder Symbole vor? Enthält die Aufgabe Visualisierungen in Form von Bildern, Konstruktionen, etc.? Werden reale Gegenstände mit einbezogen? Evtl. Computerdarstellungen.

Um komplexitätssteigernde Wirkung der Repräsentationsformen des Wissens in einer Aufgabe genauer analysieren zu können, stellen wir zwei Fragen: Zunächst muss analysiert werden, in welcher Form das für die Aufgabenbearbeitung benötigte Wissen in der Aufgabe dem Schüler präsentiert wird? Möglich sind Texte (verschiedene Textsorten sollte man auch als unterschiedliche Repräsentationsformen bezeichnen: lineare, nicht-lineare Texte, Gesetzestexte, Lyrik, Fahrpläne, etc.), symbolische Darstellungen (Zeichen, Zahlen, Abkürzungen, etc.), auditive Informationen (gesprochene Sprache, Musik, Geräusche) und ikonische Darstellungen (Bilder, Grafiken, Zeichnungen, etc.). Darauf hin ist zu fragen in welcher Repräsentationsform das Wissen bearbeitet bzw. die Lösung erstellt werden muss? Die Beantwortung der beiden Fragen führt zu folgenden Kombinationsmöglichkeiten:

  • Aufgaben mit einer Repräsentationsform: Aufgabeninformation und die für die Aufgabenlösung erforderlichen Wissenseinheiten basieren auf einer Repräsentationsform. Es sind eventuell noch andere Repräsentationsformen vorhanden, die für die Lösung jedoch irrelevant sind (z.B. Bild zur Illustration; Berechne: 4 * 4 = ...).

  • Integration verschiedener Repräsentationsformen: Aufgabe gibt Wissen in verschiedenen Repräsentationsformen (z.B. auch verschiedene Textsorten) vor, die vom Schüler für die Lösung zu integrieren sind. Oder die zu aktivierenden Wissenseinheiten liegen in einer anderen Repräsentationsform vor als die Aufgabeninformationen (z.B. physikalisches Gesetz wurde in sprachlicher oder symbolischer Darstellung enkodiert, gelernt; Aufgabensituation besteht jedoch aus einer grafischen Darstellung einer konkreten Anwendungssituation). Die Aufgabenlösung bewegt sich jedoch innerhalb der vorgegebenen Repräsentationsformen (Schüler muss die Grafik ergänzen und z.B. Kraftpfeile einzeichnen).

  • Integration und Transformation des Wissens: Lernende muss für die Aufgabenlösung das vorliegende Wissen in eine Repräsentationsform transformieren, die nicht durch die Aufgabe vorgegeben wird. Beispielsweise wird der Schüler aufgefordert, eine Handlung schriftlich zu dokumentieren (z.B. ein Kochrezept niederschreiben). Oder ein algebraischer Term soll geometrisch dargestellt werden.


Das Kategoriensystem wurde und wird empirisch überprüft. Genauere Hinweise dazu finden Sie unter Projekte und in den bisherigen Veröffentlichungen.

Das Kategoriensystem ist öffentlich zugänglich und kann jederzeit angewandt werden. Wir sehen besondere Möglichkeiten des Einsatzes in folgenden Bereichen:

  • mit Studierenden im Rahmen der Lehrerbildung in der ersten Phase
  • mit Referendarinnen und Referendaren in der zweiten Phase
  • mit Lehrkräfte, Mitgliedern von Schulleitungen und Steuergruppen, Mitgliedern aus der Schulverwaltung sowie mit Multiplikatorinnen und Multiplikatoren im Rahmen von Fortbildungen oder auch individuell und ‚autodidaktisch‘.

Wir sehen in diesem Kategoriensystem insbesondere die Möglichkeit einer fundierten, differenzierten und systematischen Auseinandersetzung mit schulischen Aufgaben, insofern verstehen wir als ein heuristisches Instrument für Lehrkräfte. Das Kategoriensystem gibt keine unmittelbare Antwort auf die Frage, ob damit die Qualität von Aufgaben untersucht werden kann.

Weitere Darstellungen finden Sie unter Publikationen.

Literatur (Auswahl)

Anderson, J. R. (1989). Kognitive Psychologie: eine Einführung (2. Aufl.). Heidelberg: Spektrum.

Anderson, L. W. & Krathwohl, D. R. (Hrsg.) (2001). A Taxonomy for Learning, Teaching and Assessing: A Revision of Bloom's Taxonomy of Educational Objectives. New York: Longman.

Arnold, K.-H. (2008). Bildung durch das Lösen von Aufgaben? Generalisierungsstrukturen der kategorialen Bildung aus der Perspektive der Lehr-Lernforschung. Vortrag auf dem 21. Kongress der DGfE, Kulturen der Bildung in Dresden, AG 18: Weiterentwicklung der Allgemeinen Didaktik (18.03.2008).

Baumert, J. & Lehmann, R. (1997). TIMSS - Mathematisch-naturwissenschaftlicher Unterricht im internationalen Vergleich. Deskriptive Ergebnisse. Opladen: Leske + Buderich.

Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. (1997). Gutachten zur Vorbereitung des Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Bonn: Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung.

Blömeke, S., Risse, J., Müller, C., Eichler, D. & Schulz, W. (2006): Analyse der Qualität von Aufgaben aus didaktischer und fachlicher Sicht. Ein allgemeines Modell und seine exemplarische Umsetzung im Unterrichtsfach Mathematik. Unterrichtswissenschaft, 34, 330-357.

Blömeke, S. & Müller, C. (2009). Zum Zusammenhang von Allgemeiner Didaktik und Lehr-Lernforschung im Unterrichtsgeschehen. Zeitschrift für Erziehungswissenschaft, 9 (Sonderheft „Perspektiven der Didaktik“ 239-258).

Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W.H. & Kratwohl, D. R. (1956). Taxonomy of educational objectives, Handbook 1: Cognitive domain. New York: McKay.

Blum, W. et al. (1999). TIMSS und der BLK-Modellversuch „SINUS“ in Hessen. Wiesbaden: Hessisches Landesinstitut für Pädagogik.

Bohl, T. (2004). Empirische Unterrichtsforschung und Allgemeine Didaktik. Ein prekäres Spannungsverhältnis und Folgerungen aus der PISA-Studie. Die Deutsche Schule, 96(4), 414-425.

Bohl, T. (2009). Offenen Unterricht weiterentwickeln. Mikroprozesse des Lernens berücksichtigen und Gesamtkonzeption optimieren. Pädagogik. 62(4), 6-10.

Bohl, T. & Kucharz, D. (2010). Offener Unterricht heute. Konzeptionelle und didaktische Weiterentwicklung. Weinheim und Basel: Beltz.

Bortz, J. & Döring, N. (2002). Forschungsmethoden und Evaluation. (3. Aufl.). Berlin: Springer.

Bremerich-Vos, Albert (2008). Benjamin S. Bloom (und andere) revisited. In A. Bremerich-Vos, D. Granzer & O. Köller, (Hrsg.), Lernstandsbestimmung im Fach Deutsch. Gute Aufgaben für den Unterricht (S. 29-49). Weinheim: Beltz.

Bromme, R., Seeger, F. & Steinbring, H. (1990). Aufgaben als Anforderungen an Lehrer und Schüler. Köln: Aulis Verlag Deubner & Co.

Brophy, J. & Good, T. L. (1986). Teacher behavior and student achievement. In M.C. Wittrock (Hrsg.), Handbook of research on teaching. (3.Aufl., S.328-375). New York: Macmillan Publishing Company.

Bruder, R. (2003). Konstruieren – Auswählen – Begleiten. Über den Umgang mit Aufgaben. Friedrich Jahresheft, XXI, 12-15.

Büchter, A. & Leuders, T. (2005). Mathematikaufgaben selbst entwickeln. Lernen fördern – Leistung überprüfen. Berlin: Cornelsen.

Clausen, M., Reusser, K. & Klieme, E. (2003). Unterrichtsqualität auf der Basis hoch-inferenter Unterrichtsbeurteilungen. Ein Vergleich zwischen Deutschland und der deutschsprachigen Schweiz. Unterrichtswissenschaft, 31(2), 122-141.

Cohors-Fresenborg, E., Sjuts, J. & Sommer, N. (2004). Komplexität von Denkvorgängen und Formalisierung von Wissen. In M. Neubrand (Hrsg.), Mathematische Kompetenzen von Schülerinnen und Schülern in Deutschland. Vertiefende Analysen im Rahmen von PISA 2000 (S. 109-144). Wiesbaden: VS Verlag für Sozialwissenschaften.

Deutscher Bildungsrat (Hrsg.) (1970). Strukturplan für das Bildungswesen. Stuttgart: Klett Verlag.

Doyle, W. (1992). Curriculum and Pedagogy. In P.W. Jackson (Hrsg.), Handbook of Research on Curriculum (S.486-516). New York: Macmillan Publishing Company.

Dubs, R. (1978). Aspekte des Lehrerverhaltens. Aarau: Sauerländer.

Edelmann, W. (2000). Lernpsychologie. Weinheim: Psychologie-Verlags Union.

Eikenbusch, G. (2005). Eine neue Aufgabenkultur im Deutschunterricht? Deutsch Extra. Das Magazin für den Deutschunterricht. Berlin: Cornelsen Verlag.

Fingerhut, K. (2004). Integrierte Unterrichtseinheiten als Kompetenzmodelle. In M. Kämper- van den Boogaart (Hrsg.), Deutschunterricht nach der PISA-Studie. Frankfurt am Main: Peter Lang.

Gagne, R. (1985). The Conditions of Learning (4Aufl.). New York: Holt, Rinehart & Winston.

Gagne, R., Briggs, L. & Wager, W. (1992). Principles of Instructional Design (4Aufl.). Fort Worth, TX: HBJ College Publishers.

Greefrath, G. (2004). Offene Aufgaben mit Realitätsbezug. Eine Übersicht mit Beispielen und erste Ergebnisse aus Fallstudien. mathematica didactica, 28(2), 16–38.

Harlen, W. & Winter, J. (2004). The development of assessment for learning: Learning from the case of science and mathematics. Language Testing, 21(3), 390-408.

Häußler, P. & Lind G. (1998). Weiterentwicklung der Aufgabenkultur im mathematisch-naturwissenschaftlichen Unterricht. Erläuterungen zu Modul 1 des BLK-Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Institut für die Pädagogik der Naturwissenschaften an der Universität Kiel (IPN)

Jatzwauk, P. (2007). Aufgaben im Biologieunterricht - eine Analyse der Merkmale und des didaktisch-methodischen Einsatzes von Aufgaben im Biologieunterricht. Berlin: Logos.

Jordan, A., Krauss, S., Löwen, K., Blum, W., Neubrand, M., Brunner, M. et al. (2008). Aufgaben im COACTIV-Projekt: Zeugnisse des kognitiven Aktivierungspotentials im deutschen Mathematikunterrichts. Journal für Mathematikdidaktik, 29(2), 83-107.

Jordan, A., Ross, N., Krauss, S., Baumert, J., Blum, W., Neubrand, M., Löwen, K., Brunner, M. & Kunter, M. (2006). Klassifikationsschema für Mathematikaufgaben: Dokumentation der Aufgabenkategorisierung im COACTIV-Projekt. Max-Planck-Institut für Bildungsforschung: Berlin.

Klafki, Wolfgang (1958). Didaktische Analyse als Kern der Unterrichtsvorbereitung. Die Deutsche Schule, 50, 450-471.

Kleinknecht, M. (2010). Aufgabenkultur. Baltmannsweiler: Schneider Verlag Hohengehren.

Klieme, E., & Bos, W. (2000). Mathematikleistung und mathematischer Unterricht in Deutschland und Japan: Triangulation qualitativer und quantitativer Analysen am Beispiel der TIMS-Studie. Zeitschrift für Erziehungswissenschaft, 3, 359-379.

Klieme, E., Schümer, G. & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung im internationalen Vergleich. In E. Klieme & J. Baumert, (Hrsg.), TIMSS – Impulse für Schule und Unterricht. Forschungsbefunde, Reforminitiativen, Praxisberichte und Video-Dokumente (43–57). Bonn: BMBF.

KMK (2003). Vereinbarung über Bildungsstandards für den Mittleren Schulabschluss (Jahrgangsstufe 10), Beschluss der Kultusministerkonferenz vom 04.12.2003

Knapp, Werner (Hrsg.) (2004): Deutschprofi A 2. Lese- und Sprachbuch für das 6. Schuljahr. München: Oldenbourg

Köster, J. (2004). Aufgabenkultur und Lesekompetenz. Deutschdidaktische Positionen. Frankfurt a.M.: Peter Lang.

Koskenniemi, M. & Komulainen, E. (1983). Lehrmaterial und Unterrichtsprozeß. Unterrichtswissenschaft 10, S. 4-26.

Kron, F. W. (2004). Grundwissen Didaktik (4. Aufl.). München: Ernst Reinhardt Verlag.

Krumm, V. (1985). Anmerkungen zur Rolle der Aufgaben in Didaktik, Unterricht und Unterrichtsforschung. Unterrichtswissenschaft, 13(2), 102-115

Kunter, M., Brunner, M., Baumert, J., Klusmann, U., Krauss, S., Blum, W., Jordan, A. & Neubrand, M. (2005). Der Mathematikunterricht der PISA -Schülerinnen und -Schüler. Schulformunterschiede in der Unterrichtsqualität. Zeitschrift für Erziehungswissenschaft, 8(4), 502-520.

Leuders, T. (2006). Kompetenzorientierte Aufgaben im Unterricht. In W. Blum, C. Drüke-Noe, R. Hartung, & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 81–95). Berlin: Cornelsen.

Lipowsky, F. (2002). Zur Qualität offener Lernsituationen im Spiegel empirischer Forschung - Auf die Mikroebene kommt es an. In U. Drews & W. Wallrabenstein (Hrsg.), Freiarbeit in der Grundschule, Offener Unterricht in Theorie, Forschung und Praxis (S. 126-159). Frankfurt am Main: Grundschulverband.

Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. Zeitschrift für Pädagogik, 51, 47-70, Beiheft.

Lowyck, J. (1976). Die Analyse des Fragenstellens als Instrument für ein abgestuftes Fertigkeitstraining. Unterrichtswissenschaft 1, 53-73.

Metz, K., Maier, U. & Kleinknecht, M. (2009). Kognitiver Anspruch von Aufgaben im Deutschunterricht. informationen zur deutschdidaktik (ide), 33(3), 74-87.

Mummendey, H. D. (1995). Die Fragebogenmethode. Göttingen: Hogrefe.

Neubrand, J. (2002). Eine Klassifikation mathematischer Aufgaben zur Analyse von Unterrichtssituationen: Selbsttätiges Arbeiten in Schülerarbeitsphasen in den Stunden der TIMSS-Video-Studie. Hildesheim: Verlag Franzbecker.

Rakoczy, K., Klieme, E., Bürgermeister, A. & Harks, B. (2008). The Interplay Between Student Evaluation and Instruction - Grading and Feedback in Mathematics Classrooms. Zeitschrift für Psychologie / Journal of Psychology 216(2), 111–124.

Reusser, K. (2009). Empirisch fundierte Didaktik – didaktisch fundierte Unterrichtsforschung. Eine Perspektive zur Neuorientierung der Allgemeinen Didaktik. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 219-237.

Rütter, T. (1973). Formen der Testaufgabe: Eine Einführung für didaktische Zwecke. München: Beck.

Schabram, K. (2007). Lernaufgaben im Unterricht: Instruktionspsychologische Analysen am Beispiel Physik. Dissertation am Fachbereich Bildungswissenschaften der Universität Duisburg-Essen.

Schnotz, W., Ballstaedt, S.-P. & Mandl, H. (1981). Kognitive Prozesse beim Zusammenfassen von Lehrtexten. In H. Mandl (Hrsg.), Zur Psychologie der Textverarbeitung. Ansätze, Befunde, Probleme (S. 108-167). München: Urban und Schwarzenberg.

Shavelson, R. J. & Webb, N. M. (1991). Generalizability theory: A primer. Newbury Park, CA: Sage.

Sjuts, J. (2006). Unterrichtliche Gestaltung und Nutzung kompetenzorientierter Aufgaben in diagnostischer Hinsicht. In W. Blum, C. Drüke-Noe, R. Hartung & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 96-112). Berlin: Cornelsen.

Sjuts, J. (2007). Kompetenzdiagnostik im Lernprozess - auf theoriegeleitete Aufgabenstellung und -auswertung kommt es an. mathematica didacta, 30(2), 33-52.

Stein, M. K., Grover, B. W. & Henningsen, M. (1996). Building student capacity for mathematical thinking and reasoning: An analysis of mathematical tasks used in reform classes. American Educational Research Journal, 33, 455-488.

Stigler, J. W. & Hiebert, J. (1997). Understanding and improving classroom mathematics instruction. An overview of the TIMSS video study. Phi-Delta-Kappan, 79, 14-21.

Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science 12, 257-285.

Terhart, E. (2002). Fremde Schwestern. Zum Verhaltnis von Allgemeiner Didaktik und empirischer Lehr-Lern-Forschung. Zeitschrift fur Padagogische Psychologie, 16, 77-86.

Terhart, E. (2009). Allgemeine Didaktik: Traditionen, Neuanfänge, Herausforderungen. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 13-34.

Tulodziecki, G., Herzig, B. & Blömeke, S. (2004). Gestaltung von Unterricht - Eine Einführung in die Didaktik. Bad Heilbrunn: Klinkhardt.

van Merrienboer, Jeroen J G., Clark, Richard E. & de Croock, Marcel B. M. (2002). Blueprints for complex learning: The 4C/ID-model. Educational Technology, Research and Development, 50(2), 39-64.

Wilson, J.W. (1971). Evaluation of Learning in Secondary School Mathematics. In B.S. Bloom, J.T. Hastings & G.F. Madaus (Hrsg.), Handbook on Formative and Summative Evaluation of Student Learning (S. 643-696). New York: McGraw-Hill, Inc.

Maier, U., Kleinknecht, M., & Metz, K. (2010). Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In H. Kiper, W. Meints, S. Peters, S. Schlump, & S. Schmit (Hrsg.), Schulpädagogik: Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht (S. 28–43). Stuttgart: Kohlhammer.