Operante Konditionierung nach Skinner

Skinner

B. F. Skinner teilte Thorndikes Ansicht, dass jegliches Verhalten durch bisher erlebte Verhaltenskonsequenzen beeinflusst werde. 1930 beschrieb Skinner seine Experimente mit der Skinnerbox (nach ihm benannte Variante eines Problemkäfigs), in der mit Ratten und Tauben Versuche durchführte. Skinner stützte sich dabei zunächst auf Thorndikes Arbeiten und entwickelte dessen Theorien weiter: Während sich Thorndike auf das grundlegende Versuch-und-Irrtum-Verhalten konzentrierte, rückte Skinner verschiedene Arten der Verstärkung als Konsequenz für ein gezeigtes Verhalten in den Mittelpunkt seiner Forschung.

Beispiel: Skinner sperrte eine Versuchsratte in einen Käfig, in welchem sich einige Signallampen zum testen der Differenzierung und Generalisation (siehe unten) sowie ein Fressnapf befand, der von Außen gefüllt werden konnte. Weiterhin gab es in diesem Käfig einen Hebel, der je nach Versuchstier und Versuchsanordnung eine andere Konsequenz darbot:

 Operante Konditionierung

Bildquelle: Lefrancois (1994, 36) 

Ratte 1 bekam Futter, wenn sie den Hebel betätigte, Ratte 2 konnte durch das Betätigen des Hebels Strom abschalten, der durch das Bodengitter (siehe Grafik) floss und Ratte 3 erhielt einen Stromschlag, wenn sie den Hebel betätigte. 

Nach mehreren Versuchen betätigten Ratte 1 und Ratte 2 immer wieder den Hebel, während Ratte 3 den Hebel nicht mehr betätigte. 
Die Ratten hatten gelernt, Verhalten mit positiven Konsequenzen (Futter bekommen, Strom abschalten) zu wiederholen und negative Konsequenzen (Stromschlag) zu vermeiden. Skinner nannte diesen Lerneffekt: 'Lernen durch Verstärkung' oder auch 'Lernen am Erfolg': das Verhalten (z.B. Strom des Käfigbodens abschalten) befriedigt das Bedürfnis und verstärkt das Verhalten

Skinner unternahm weitere Versuche in Verbindung mit Signallampen:
Beispielsweise bekam das Tier nur Nahrung, wenn es den Hebel betätigte und die Deckenlampe brannte.

Das Tier konnte auf verschiedene Zusätze konditioniert werden: Es gilt nicht nur eine Tätigkeit auszuführen (den Hebel zu betätigen), um die Reaktion auszulösen, sondern es muss eine zweite Bedingung (z.B. das Brennen einer Lampe) erfüllt sein.

Die Versuchstiere (in der Skinnerbox) hatten gelernt, durch das eigene Verhalten positive bzw. angenehme Konsequenzen ("satisfier") herbeizuführen und unangenehme Konsequenzen ("annoyer") zu vermeiden bzw. zu verringern. 

"In Skinners Perspektive kann das Verhalten des Tieres vollständig durch äußere Erfahrungen (Stimuli aus der Umwelt) erklärt werden - durch die Nahrungsdeprivation und Einsatz von Nahrungsmitteln als Verstärkung." Zimbardo & Gerrig (1999, 208)

Bei der operanten Konditionierung erfolgt eine Verstärkung auf eine gezeigte Verhaltensweise.
Als Verstärkung zählt eine bestimmte Konsequenz, die über die Wiederholung des gezeigten Verhaltens entscheidet.
Skinners Lerntheorie basiert auf dem Einsatz der Verstärkung nachdem ein "lernendes" Individuum eine erwünschte Verhaltensweise gezeigt hat.

Beispiel: Ein Schüler kommt wiederholt verspätet in den Schulunterricht. Da die Mitschüler bewundernd lachen und die Lehrer nichts gegen den Regelverstoß unternehmen, empfindet der Schüler die Konsequenz für sein Verhalten als positiv.
Durch diesen positiven Verstärker wird der Schüler voraussichtlich auch in Zukunft zu spät kommen, um wieder in den Genuss des Verstärkers zu kommen.

Operant bedeutet, an bzw. in seiner Umwelt zu operieren (einzugreifen). Durch das Emittieren einer Verhaltensweise ist es einem Individuum möglich, die Umwelt zu beeinflussen. "Im wörtlichen Sinne bedeutet operant  "die Umwelt beeinflussend" oder "in ihr wirksam werdend" (Skinner 1938)." Zimbardo & Gerrig (1999, 219)
Beim operanten Konditionieren ist demnach ein Individuum von sich ausgehend aktiv, da es eine 'Operation' in der Umwelt vornimmt: Ein Verhalten wird gezeigt (vorgenommen, gemacht), welches die Reaktion der Umwelt hervorruft (= Konsequenz auf das Verhalten). Operanten Verhalten muss nicht geplant sein: Viele Verhaltensweisen der operanten Konditionierung werden spontan emittiert.
 

Fällt Ihnen ein Verhalten ein, das Sie selbst aufgrund operanter Konditionierung erlernt haben?

  Denkanstöße / Praxisbeispiele
In die Schule gehen,
Briefe schreiben,
Fragen beantworten,
Fischen,
Segeln oder
mit einem Hund spielen.
Ein Schüler soll sich auf ein Referat anhand einer bestimmten Literaturquelle vorbereiten. Er sichtet nicht nur die angegebene Literatur, sondern bedient sich auch noch anderer Quellen, um hervorragend vorbereitet zu sein.
[a] Er wird vom Lehrer und seinen Mitschülern gelobt. Um diese positive Konsequenz (satisfier) wieder zu erhalten, wird er in Zukunft ebenso handeln.
[b] Seine Mitschüler lachen ihn aus und titulieren ihn als Streber. Um diese negative Konsequenz (annoyer) nicht wieder zu erhalten, wird er sein Verhalten zukünftig ändern.
Ein weinendes und schreiendes Kind wird abends von den Eltern auf den Arm genommen. Die Eltern versuchen somit einen aversiven Reiz (das unangenehme Weinen und Schreien am Abend) zu unterbinden. Das Kind wird jedoch verstärkt: Durch lautes Weinen und Schreien kann es am Abend die Aufmerksamkeit und die Zuwendung der Eltern bekommen. Tagsüber reagieren die Eltern vielleicht anders. Es muss also Abend sein, um über das Schreien und Weinen die positive Konsequenz zu erreichen. [In diesem Beispiel ist sowohl Verstärkung (Aufmerksamkeit und Zuwendung), als auch die zweite Bedingung (es muss Abend sein) enthalten!]
"Ich tue das, weil ..."
"Damit Du Ruhe gibst, mache ich das für Dich!"
In einem Dialog quittiert F. Themen, die er gerne mag, mit einem bestätigenden "mhm" oder einem "ja". Er lenkt somit indirekt die Themenwahl, da sein Gesprächspartner für die jeweilige Thematik verstärkt wird.

 

 

Zitate zur operanten Konditionierung:
"Die Verstärkung wird durch die Reaktion bedingt." Hilgard & Bower (1973, 131)

"Diese Abhängigkeit von dem nachfolgenden verstärkenden Reiz verleiht dem Begriff "Wirkreaktion" seine Bedeutsamkeit ... Die Wirkreaktion ... gewinnt für das Verhalten eine Bedeutung und nimmt eine identifizierbare Form an, wenn sie auf die Umwelt in dem Sinne einwirkt, daß ein verstärkender Reiz hervorgebracht wird (1938, Seite 22)." Hilgard & Bower (1973, 132)

"Wir belohnen Menschen, wir verstärken Verhalten." Skinner (1986), zitiert nach: Mietzel (1998 a, 137)

Exkurs zur instrumentellen Konditionierung:
Operante und instrumentelle Konditionierung sind benachbarte Ansätze, da sie ineinander übergehen (vgl. Fisseni, 2003, 415). Die insturmentelle Konditionierung nach Dollard & Miller stellt das Instrument des Konditionierungsvorganges in den Mittelpunkt. Wirkt sich z.B. die Gabe von Futter auf das zukünftige Verhalten aus (=Lernprozess), so ist das Futter als Instrument für den Lernprozess anzusehen. Statt Gegenständen (z.B. Futter) können auch Verhaltensweisen als Instrument im Sinne der instrumentellen Konditionierung gelten:
"Eine Verhaltensweise wird somit zu einem "Instrument", eine angenehme Konsequenz herbeizuführen und eine unangenehme zu vermeiden. Diese Formulierung ist der Hintergrund des Begriffs der "Instrumentellen Konditionierung": Eine Aktivität ist Mittel zur Erreichung einer bestimmten Konsequenz." Mietzel (1998 a, 134) 

 

Merkmale der operanten Konditionierung nach Skinner


Diskrimination / Differenzierungslernen
In Skinners Versuch lernte die Ratte, dass es nur Futter gibt, wenn die Lampe leuchtet und der Hebel umgelegt wird. Das Tier kann demnach zwei Zustände voneinander differenzieren: Licht aus = keine Möglichkeit an Futter zu gelangen oder Licht an = Möglichkeit an Futter zu gelangen (durch das Umlegen des Hebels).
Im Gegensatz zu der Generalisation wird das Verhalten nur in bestimmten (= differenten) Fällen belohnt.  


Löschung / Extinktion
Erhielten die Ratten keine Verstärkung (mehr) für ein gezeigtes Verhalten, so konnte Skinner nach einer gewissen Zeit der Nichtverstärkung das Verhalten immer seltener beobachten.
Die Verhaltenshäufigkeit nimmt langsam ab, wenn das Verhalten nicht verstärkt wird. 
Auf eine gezeigte Verhaltensweise erfolgt kein Verstärker mehr, die erwünschte Konsequenz bleibt somit aus. Aufwand und Dauer einer Löschung sind abhängig von der Lerngeschichte und von der Art der Verstärker (siehe unten).
"Unter Löschung versteht man beim operanten Konditionieren das Ausbleiben der positiven Konsequenz auf ein bestimmtes, durch die positiven Konsequenzen kontrolliertes Verhalten." Linden & Hautzinger (1996, 223)

Das Ausbleiben eines erwarteten Verstärkers kann auch als Strafe aufgefasst werden. Eine Schwierigkeit besteht im Ausfindigmachen der Verstärker, da diese auch irrational versteckt sein können. 
Es kann vorkommen, dass bei Ausbleiben der positiven Konsequenzen zunächst diese Verhaltensweise in deutlich stärkerer Form gezeigt wird. 
Beispiel: Ein Kind schreit und bekommt die Zuwendung der Mutter. Wenn die Mutter dem Kind auf das Schreien nun keine Zuwendung mehr schenkt, kann es vorkommen, dass das Kind kurzfristig noch deutlich klangvoller schreit, um doch noch in den Genuss der positiven Konsequenz (der Zuwendung) zu kommen.

"Skinner z.B. versteht Vergessen als Verschwinden von Verhaltensweisen aufgrund eines zeitbedingten langsamen Zerfallsprozesses." Lefrancois (1994, 163) 

"Unter Extinktion (Löschung) versteht man die Abnahme der Häufigkeit eines gelernten Verhaltens aufgrund von Nichtverstärkung, bis es schließlich nur noch zufällig auftritt." Hobmair (1996, 152)

Unter spontaner Erholung (spontaneous recovery) versteht man das Zeigen von Verhaltensweisen, die durch ausbleibende Verstärkung bereits abgeschwächt wurden. Mitten im Prozess der Löschung wird das Verhalten ohne logische Begründung noch einmal gezeigt, obwohl es nicht mehr verstärkt (konditioniert) wurde.


Verstärkung
[PDF-Kurzfassung zu Verstärkung und Verstärkern!]

Skinner leitete aus seinen Experimenten das Prinzip der Verstärkung ab: "Verstärkung ist der Prozess, der dazu führt, dass ein spontan gezeigtes Verhalten vermehrt auftritt." Hobmair (1996, 149)

Beispiele Lernen durch Verstärkung: 
- Ein Kind hilft seiner Mutter, weil es dafür Schokolade bekommt.
- Der Ehemann kocht, weil er dafür von seiner Frau gelobt wird.
- B. erfüllt sich seine Wünsche durch Ladendiebstähle, da er sich die Waren nicht leisten kann.
- D. beteiligt sich aktiv am Grundschulunterricht.

Unter Verstärkung versteht man eine angenehme Folge
Beispiele für eine angenehme Folge: 
- Schokolade, die ein Kind für eine Leistung erhält.
- Lob, das ein Ehemann für seine Küchenaktivitäten bekommt.
- Erfüllte Wünsche durch den Ladendiebstahl.
- Fleißkärtchen für besonders gute Leistungen in der Grundschule.

"Erfolgt direkt auf ein Verhalten etwas, was als angenehm empfunden wird oder was zum Erfolg führt, dann tritt dieses Verhalten in Zukunft häufiger auf. Es ist durch die angenehme Konsequenz oder Folge verstärkt worden. Angenehme Folgen eines Verhaltens bezeichnen wir daher als Verstärkung. Eine Verstärkung erhöht die Häufigkeit einer Verhaltensweise oder die Stärke einer Einstellung." Schmitt (1999, 4)

Statt positiver Verhaltensweisen können auch negative Verhaltensweisen verstärkt werden. 
Beispiel Verstärkung negativer Eigenschaften:
"Ein Betrunkener pöbelt in der Kneipe jemanden an und meint, der könne ihm ruhig mal ein Bier ausgeben. Um ihn zur Ruhe zu bringen, bezahlt der Mann ihm das Bier. Das Verhalten "andere anpöbeln, um ein Bier zu bekommen" wird dadurch verstärkt. Der Betreffende wird diese Verhaltensweise, sich kostenlos ein Bier zu beschaffen, wahrscheinlich zukünftig häufiger anwenden." Schmitt (1999, 4)

Man strebt danach, eine angenehme Folge wieder zu erleben und versucht aufgrund vergangener Situationen ein Verhalten anzupassen.

Verstärker differenziert nach der Wirkung

Positive Verstärkung
Eine Verhaltensweise führt zur gewünschten positiven Konsequenz.
Beispiel positive Verstärkung: 
- jemanden anlächeln, der sofort zurück lächelt;
- etwas bestellen, was ich sofort erhalte;
- Herr N. fährt oftmals zu schnell. Trotz der permanent überhöhten Geschwindigkeit wird er weder von der Polizei angehalten, noch passiert ihm ein Unfall, was dazu führt, dass Herr N. weiterhin zu schnell fährt.

Unter positiver Verstärkung versteht man ein Verhalten, dass in einer bestimmten Situation wiederholt gezeigt wird, weil die bisherigen Reaktionen auf dieses Verhalten positive Konsequenzen brachten.
Dem Verhalten folgt ein positives Ereignis. Aus pädagogischer Sicht stellt die positive Verstärkung eine sinnvolle Methode dar, um über Belohnung und Erfolg die Häufigkeit des Auftretens eines Verhaltens zu erhöhen. 

"1. Ein positiver Verstärker ist ein Reiz, der zu einem Anstieg der Auftretenswahrscheinlichkeit einer Wirkreaktion führt, wenn er zu einer Situation hinzutritt. Beispiele für positive Verstärker sind Futter, Wasser, sexueller Kontakt usw." Hilgard & Bower (1973, 135)
"Unter positiven Verstärkern versteht man Reize und Ereignisse, deren reaktionskontingente (d.h. unmittelbar anschließende) Darbietung dazu führt, daß die Frequenz einer Verhaltensweise ansteigt [...]" Linden & Hautzinger (1996, 63)

Negative Verstärkung
Eine Verhaltensweise führt dazu, dass eine unangenehme (aversive) Konsequenz ausbleibt (Flucht).
Beispiel negative Verstärkung:
- Langsames Fahren, um nicht 'geblitzt' zu werden.
- Aufsetzten der Sonnenbrille, um nicht mehr geblendet zu werden.
- Herr M. fährt sehr vorsichtig und langsam. Ihm passiert kein Unfall und er bekommt keine Probleme mit der Polizei, was er auch verhindern möchte. Herr M. wird weiterhin vorsichtig fahren, um evtl. negativen Konsequenzen vorzubeugen.
- A. hat sich angewöhnt, seiner Nervosität durch autogenes Training zu begegnen.
- B. hat die Erfahrung gemacht, dass sich seine Prüfungsangst vermindert, wenn er Beruhigungstabletten nimmt.

Negative Verstärkung bedeutet ein Verhalten in einer bestimmten Situation zu zeigen, weil unangenehme Konsequenzen in der Vergangenheit durch dieses Verhalten vermieden oder beseitigt werden konnten.
Dem Verhalten folgt das Ausbleiben eines unangenehmen (aversiven) Ereignisses, d.h. es kommt nicht nur zu keiner Strafe für das Verhalten - einer Strafe wird (durch Prophylaxe) aus dem Weg gegangen. 

"2. Ein negativer Verstärker ist ein Reiz, der die Auftretenswahrscheinlichkeit einer Wirkreaktion erhöht, wenn er aus einer Situation herausgenommen wird. Beispiele hierfür sind etwa starker Lärm, ein sehr helles Licht, extreme Hitze oder Kälte, ein elektrischer Schlag usw." Hilgard & Bower (1973, 135)
"[...] unter negativen Verstärkern versteht man Reize und Ereignisse, deren reaktionskontigente Entfernung bzw. Beendigung dazu führt, daß die Frequenz einer Verhaltensweise ansteigt [...]." Linden & Hautzinger (1996, 63)

Positive Bestrafung (auch als "Bestrafung Typ I" bezeichnet)
Eine Verhaltensweise führt zu einer unangenehmen Konsequenz.
Beispiel positive Bestrafung:
- G. rennt auf einem nassen Flur, fällt hin und verstaucht sich den Knöchel.
- H. spielt aus Langeweile mit einem Messer und fügt sich eine Schnittwunde zu.

Negative Bestrafung (auch als "Bestrafung Typ II" bezeichnet)
Eine Verhaltensweise führt dazu, dass eine angenehme Konsequenz ausbleibt.
Beispiel negative Bestrafung:
- J. ist gegenüber einer Kollegin gestern aggressiv gewesen und wird (dafür) heute von ihr nicht begrüßt.
- L. beschwert sich über das Essen seiner Freundin, welche sich dafür in den kommenden Wochen gänzlich weigert zu kochen.


Lernen durch Bestrafung (Vgl. Schmitt (1999 a, 9 - 14)) 
Folgt einem Verhalten eine unangenehme Folge, spricht man von Bestrafung. Durch Bestrafung sollen unerwünschte Verhaltensweisen/Einstellungen abgebaut werden, unerwünschte Verhaltensweisen/Einstellungen werden jedoch nicht dauerhaft beseitigt, sondern nur kurzfristig unterdrückt oder abgeschwächt (Verhaltensunterdrückung). 
Oft lernt man nur, die Bestrafung durch geschickteres Verhalten zu vermeiden. Ein angemesseneres, günstigeres Verhalten wird aber nicht gelernt. 
Beispiel Verhaltensunterdrückung als Resultat der Bestrafung:
P. hat ein starkes Bedürfnis nach schnellen Autos. Da er sich ein solches Auto finanziell nicht leisten kann, stiehlt er immer wieder Sportwagen. Schließlich wird er erwischt und von einem Gericht zu einer erheblichen Geldstrafe verurteilt. Nach einem halben Jahr klaut er wiederum Sportwagen, jedoch macht er es dieses Mal geschickter, um nicht ertappt zu werden. Seine Einstellung gegenüber der Art der Beschaffung von schnellen Autos hat sich nicht geändert und war zwischenzeitlich nur abgeschwächt und unterdrückt. 

Anstatt eines unerwünschten Verhaltens kann aber auch ein erwünschtes Verhalten bestraft werden. 
Beispiel Bestrafung von erwünschten Verhalten:
Der Mitarbeiter R. kritisiert in angemessener Weise eine Anordnung seines Vorgesetzten, die er für untragbar hält. Einige Zeit später wird er mit einer fadenscheinigen Begründung in eine andere Abteilung versetzt. Das eigentlich erwünschte Verhalten 'offen seine Meinung sagen' wurde durch diese Versetzung bestraft. Der Mitarbeiter wird nun wahrscheinlich seine Kritik lieber für sich behalten und vielleicht seinen Ärger zu Hause ablassen. 

Bestrafung kann aber auch darin bestehen, dass angenehme Folgen, die man auf bestimmte Verhaltensweisen/Einstellungen erwartet hat, nicht mehr eintreten oder entzogen werden. Der Entzug von Verstärkern stellt somit eine unangenehme Folge dar (Entzug von Verstärkern = Bestrafung). 
Ein Verhalten, das nicht mehr die erwartete Verstärkung ergibt, wird dann als sinnlos aufgegeben und nicht mehr gezeigt. 
Beispiel Bestrafung durch den Entzug der erwarteten Verstärker:
Die Schülerin M. versucht durch Angeberei und Prahlerei Zuwendung von ihren Klassenkameraden zu bekommen. Da die Mitschüler ihre Prahlerei jedoch satt haben, ignorieren sie ihr Verhalten. Da C. auf diesem Wege keine Zuwendung bekommt, unterlässt sie das Prahlen. 

"Bestrafung führt jedoch niemals 
- zu einer Verstärkung eines erwünschten Verhaltens,
sondern immer nur
- zu einer kurzfristigen Abschwächung oder Unterdrückung eines unerwünschten Verhaltens." Heineken & Habermann (1994, 48)

Die Auftrittswahrscheinlichkeit einer Verhaltensweise kann mit einer Bestrafung, besser jedoch mit dem Entzug von Verstärkern gesenkt werden. Aus dem Lernen durch Bestrafung leitet sich z.B. die Aversionstherapie her:
"Unter Aversionsbehandlung faßt man eine Reihe verschiedener Behandlungsverfahren zusammen, denen gemeinsam ist, daß ein aversiver Reiz zeitlich unmittelbar an ein klinisch unerwünschtes Verhalten gekoppelt wird. Das Ziel solcher Behandlungsverfahren ist, das zukünftige Auftreten des unerwünschten Verhaltens zu reduzieren." Linden & Hautzinger (1996, 93)

Krapp & Weidenmann (2001, 150) weisen darauf hin, "[...] dass mit einer Strafe lediglich ein unerwünschtes Verhaltens gestoppt, noch nicht aber ein erwünschtes Alternativverhalten aufgebaut wird."


Verstärker differenziert nach der zeitlichen Wiederkehr / Auftreten der Verstärker

Kontinuierliche Verstärkung / Immer-Verstärkung
Jedes Zeigen der gewünschten Verhaltensweise führt zu einer Belohnung (Verstärker). Kontinuierliche Verstärkung bedeutet jedes Mal zu verstärken, wenn das gewünschte Verhalten gezeigt wird. 
Der Erwerb veränderter Verhaltensweisen erfolgt zwar schnell, die Stabilität ist jedoch gering, d.h. das Verhalten wird schneller wieder verlernt.
Beispiel kontinuierliche Verstärkung:
- Y. bekommt für jeden Handgriff im Haushalt ein kleines Stückchen Schokolade.
- S. wird für jede Form der Höflichkeit gegenüber Fremden gelobt.

Intermittierende Verstärkung / Manchmal-Verstärkung / Partielle Verstärkung (engl.: 'intermittent reinforcement')
Das erwünschte Verhalten wird ab und zu verstärkt. Es wird nicht nach jeder gewünschter Verhaltensweise verstärkt, sondern von Zeit zu Zeit.
Veränderte Verhaltensweisen werden zwar langsamer erlernt, bleiben jedoch langfristiger erhalten und sind nicht (wie bei der kontinuierlichen Verstärkung) von einer permanenten Verstärkung abhängig.
Beispiel intermittierende Verstärkung:
- Der Hund A. wird mit zunehmenden Alter immer seltener gestreichelt, wenn er auf den Befehl 'Komm!' auch zu seinem Herrchen gekommen ist. Der Verstärker (Streicheln) wird unregelmäßig erteilt.
- Der Satz "Dein Essen schmeckt zwar immer gut, heute ist es aber super! Was ist denn da drin?" lobt einer hervorragende, unübliche Leistung der Köchin/des Kochs und motiviert selbige(n), ein solches Mahl häufiger zu bereiten.

"Zu den wichtigsten Erkenntnissen Skinners zählt die Entdeckung, daß Lernen im Anfangsstadium durch kontinuierliche Verstärkung erleichtert wird, daß aber die Löschungszeit durch intermittierende Verstärkung verlängert wird. Obwohl die meisten seiner Experimente an Tieren durchgeführt wurden, wird angenommen, daß diese Resultate im allgemeinen auch auf menschliches Verhalten übertragbar sind." Lefrancois (1994, 211)

"Löschung braucht länger, wenn das zu löschende Verhalten unter wechselnden, ungleichmäßigen (sog. intermittierenden) Verstärkungsbedingungen gelernt und aufrechterhalten wurde." Linden & Hautzinger (1996, 223)

Intermittierende Verstärkung bedeutet das Verhalten nur ab und zu zu verstärken. Neues Verhalten wird langsamer erworben, wird jedoch stabiler eingeprägt, d.h. das erlernte Verhalten bleibt länger erhalten.

 

Unterteilung in:
Quotenverstärkung (engl.: 'fixed ratio inforcement')
Ein gewünschtes Verhalten wird mit einer mathematischen Quote verstärkt.
Z.B. muss eine Taube zehn mal dieses Verhalten zeigen, um einmal verstärkt (belohnt) zu werden ('10:1 Häufigkeitsverstärkung'). Vgl. Angermeier (1991, 61)

Intervallverstärkung (engl.: 'interval reinforcement')
Verhalten wird in bestimmten Zeitintervallen belohnt. Eine feste Anzahl von Verstärkern wird auf eine bestimmte Zeitspanne verteilt. Z.B. soll eine Verhaltensweise (sofern sie denn auch gezeigt wird) 3 mal pro Stunde verstärkt werden - nicht häufiger.
"Bei der fixierten Intervallverstärkung wird vom Tier verlangt, jeweils nach Ablauf einer festgelegten Zeit zu picken, um dann belohnt zu werden. Alle Reaktionen innerhalb des vorgegebenen Zeitraumes werden, wie häufig sie auch sein mögen, nicht belohnt." Angermeier (1991, 62)

Optimales Verhalten:
Eine Mutter gibt ihrem Kind jedes Mal ein Bonbon und lobt es, wenn es versucht hat, sich allein anzuziehen. Sie baut dadurch das Verhalten "sich selbstständig anziehen" durch "immer Verstärkung" auf. Je besser das Kind das Verhalten beherrscht, desto seltener bekommt es ein Bonbon. Schließlich braucht die Mutter auch nur noch hin und wieder zu loben. Das Verhalten ist selbstverständlich geworden und das Kind ist stolz auf seine Leistung. Die Mutter geht also zur Machmal-Verstärkung über und fördert so die Selbstverstärkung durch das Kind ('Stolz'). 

Drei wesentliche Merkmale der Selbstverstärkung:
"- Das Individuum verabreicht sich selbst die Verstärker. Im Gegensatz zu den bisher besprochenen Beispielen sind Subjekt und Objekt in einer Person vereint.
- Das Individuum muß frei über die Verstärker verfügen können.
- Das Individuum verstärkt sich nicht nach Belieben, sondern nur nach Auftreten spezifischer Verhaltensweisen." Edelmann (1996, 120)

Nicht alle Verhaltensweisen/Einstellungen werden durch Selbstverstärkung aufrechterhalten. Es gibt auch Verhaltensweisen/Einstellungen, die durch regelmäßige materielle Belohnung (z.B. Berufsausübung) oder soziale Anerkennung (z.B. Ehrenämter) aufrechterhalten werden. Die Verstärkung ist demnach 'wertvoller', wenn man sie nicht zu oft erhält und abstumpft

Dadurch, dass der Verstärker nur noch ab und zu vergeben wird, verliert er weniger seinen Wert und es kommt nicht so leicht zu einer Übersättigung; das Verhalten wird unabhängiger von den äußeren Folgen und wird nicht so schnell aufgegeben, wenn die Verstärkung hin und wieder ausbleibt; dadurch, dass äußere Folgen für eine Verhaltensäußerung an Bedeutung abnehmen, wird der Lernende auch unabhängiger von der Verstärkung durch andere (Fremdverstärkung). Damit wird gleichzeitig der Übergang zur Selbstverstärkung gefördert. Bei der Selbstverstärkung fördern innere Folgen wie z.B. "Stolz" oder "Zufriedenheit" die Verhaltensweisen/Einstellungen, die zu diesen angenehmen Gefühlen führten. Die Kontrolle und auch die Verantwortung über ein geäußertes Verhalten liegt in der betreffenden Person und nicht mehr wie bei der Fremdverstärkung bei anderen Personen. Somit ist die Förderung der Selbstverstärkung mit ihren positiven Auswirkungen auf die Persönlichkeitsentwicklung (Selbstständigkeit, Unabhängigkeit) ein erwünschtes Erziehungsziel. 


Arten der Verstärker (Vgl. Schmitt (1999 a, 5) und Linden & Hautzinger (1996, 63))

Als primäre Verstärker dienen Konsequenzen, die zur Befriedigung von physiologischen (Grund-) Bedürfnissen führen (wie z.B. Wasser, Nahrung, sexueller Kontakt, ...).
Sekundäre Verstärker sind nicht lebensnotwendig (z.B. Lob, Noten, Erlaubnis zum Spielen zu gehen, ...).

Materielle Verstärker: Wie der Begriff schon sagt, bestehen sie aus 'Material' (z.B. Geld, Blumen, Süßigkeiten, Musik-CD, ... auch das Gehalt eines Angestellten stellt einen materiellen Verstärker dar).
Diese Art von Verstärkern sind in der Regel mit finanziellem Aufwand verbunden und fördern daher auch eine materielle Abhängigkeit. Handlungsverstärker bestehen in angenehmen Tätigkeiten oder Handlungen (z.B. Kinobesuch, Fernsehen, Lesen, Schwimmen gehen, Spielen, Musik hören, ...)

Soziale Verstärker (auch: Handlungsverstärker): Diese Verstärker sind nicht immer an Kosten gebunden und werden häufig im Beisein von anderen Personen ausgelebt. Sie verhindern eher eine materielle Abhängigkeit und fördern Freizeitaktivitäten und Sozialverhalten. Soziale Verstärker bestehen aus einem angenehmen zwischenmenschlichen Kontakt (z.B. Lob, Streicheleinheiten, aufmerksames Zuhören, Beifall klatschen, ...).
"Diese Form der Verstärkung kann am einfachsten und unmittelbarsten vergeben werden und kostet kein Geld. Sie wirkt sich am günstigsten auf die Entwicklung eines angemessenen Sozialverhaltens und einer reifen Persönlichkeit (Selbstwertgefühl, Selbstbewusstsein, Verhaltensbewusstsein, usw.) aus. Die Ablösung von materieller Verstärkung durch soziale Verstärkung sollte Ziel jeder Verstärkerplanung sein. Ein neu gelerntes Verhalten sollte möglichst durch den Einfluss natürlicher mitmenschlicher Beziehungen aufrechterhalten werden." Schmitt (1999 a, 5)


Merkmale der Verstärkung (Vgl. Schmitt (1999 a, 6 - 8))
Bei der Verstärkung sollte man beachten, dass nicht jedes Individuum mit den gleichen Verstärkern belohnt werden kann: Die grundlegende Haltung und die Präferenzen des jeweiligen Individuums legen die Verstärker individuell fest. Z.B. kann ein Junge, der keinen Spinat mag, nicht mit dieser Speise verstärkt werden. Der Spinat stellt für den Jungen keine angenehme Folge dar.
Weiterhin kann ein einziger Verstärker in verschiedenen Situationen unterschiedlich wirken: Ob eine Folge eine verstärkende Wirkung hat, hängt also von unserer Bedürfnislage, unseren Ansprüchen und unseren Erwartungen ab.
Beispiele zur Tauglichkeit eines Verstärkers: 
-
Wenn K. gerade einen großen Eisbecher gegessen hat, freut sie sich deutlich weniger über einen weiteren Eisbecher als vor dem ersten.
- Wenn E. allein und einsam ist, freut er sich über einen Anruf. E. ärgert sich dagegen über einen Anruf, wenn er dadurch bei einer interessanten Fernsehsendung gestört wird. 

Weiterhin sind Verstärker kulturabhängig: In unserer Kultur werden beispielsweise Prestige, sozialer Status, Macht, Reichtum, Berühmtheit, Stärke und Intelligenz hoch angesehen. Vgl. Lefrancois (1994, 37) 

Auch die Person, die ein Verhalten verstärkt, spielt eine Rolle: Bedeutungsvolle Personen (z.B. Vorgesetzter, bester Freund, Ehepartner, ...) besitzen einen höheren Verstärkungswert als Personen, die dem Lernenden unwichtig oder gleichgültig sind. 
Z.B. ist ein Lob für eine gute Arbeit vom Vorgesetzten für die betroffene Person deutlich mehr wert (im Sinne der Verstärkung) als dasselbe Lob vom Auszubildenden der Unternehmung, der in der Firmenhierarchie unter ihm selbst steht. 


Shaping (stufenweise Annäherung)
Bei Anpassungsleistungen wurde oft beobachtet, dass sich die Verhaltensweisen, die erlernt bzw. angeeignet werden sollen, schrittweise einstellen. Komplexe Verhaltensweisen sind oftmals (besonders bei Kindern) unmöglich auf einmal zu erlernen. Deshalb muss das (Ziel-) Verhalten in kleine Unterschritte aufgeteilt werden, die es nacheinander zu durchlaufen gilt. Nachdem ein Teilschritt erfolgreich abgeschlossen wurde, werden die Anforderungen leicht erhöht. Unter Verhaltensformung versteht man einen sukzessiven (= nacheinander, schrittweise) Aufbau eines erwünschten, komplexen Verhaltens, indem jede Annäherung an das gewünschte Verhalten verstärkt wird. 

Skinner bezeichnete die schrittweise Verhaltensmodifikation als "shaping of behavior" (Verhaltensformung).
Beispiel: Verhaltensformung (‚Shaping of behavior’)
Ein Kleinkind soll lernen, sich selbst die Schuhe mit einer Schleife zuzubinden:
Schritte, die jeweils verstärkt werden: Das Kind hält ein Schuhband fest, das Kind legt die Schuhbänder übereinander, das Kind macht eine Schlaufe für die Schleife, das Kind bindet sich den Schuh mit einer Schleife.
Ist schließlich das Zielverhalten erreicht oder aufgebaut worden, so bedarf es noch der Aufrechterhaltung und Verfestigung. Ein Verhalten wird am wirksamsten aufrechterhalten, wenn die Immer-Verstärkung von der gelegentlichen Verstärkung (Machmal-Verstärkung) abgelöst wird. 

"Dresseure kennen sich in dieser Methode gut aus. Als eine Art Bravourleistung habe ich, angeregt durch neuere Untersuchungen an Menschenaffen, einer Ratte eine komplizierte Reaktionsabfolge beigebracht. Das Verhalten besteht darin, daß das Tier an einer Leine ziehen muß, um eine Murmel von einem Gestell herunterzuholen. Sodann ist die Murmel mit den Vorderpfoten aufzuheben, zu einer zwei Zoll über den Boden des Käfigs hinausragenden Röhre zu tragen und schließlich dort hineinzuwerfen. Jede Phase dieses Vorganges mußte in mehreren Näherungsschritten eingeübt werden, weil die darin enthaltenen Reaktionen nicht zum ursprünglichen Repertoire der Ratte gehörten (1938, Seite 339-340)." Hilgard & Bower (1973, 150)

"Bei der stufenweisen Annäherung handelt es sich um eine Methode, bei der aufeinanderfolgende Annäherungen differentiell verstärkt werden (Skinner, 1951). Der Versuchsleiter verstärkt hierbei jeden Schritt, der das Tier der endgültigen Reaktion näher bringt, ..." Lefrancois (1994, 41) 

"Unter Benutzung der von ihm so bezeichneten Methode der sukzessiven Annäherungen oder der Verhaltensformung gelang es Skinner, Tauben das Ping-Pong-Spiel zu lehren." Krech & Crutchfield (1992, Band 3, S. 36)

"Sein [Skinners] Programm war so aufgebaut, daß es den Lernenden durch eine Reihe sorgfältig geplanter Lernschritte führt. Die Reihenfolge der einzelnen Lernschritte legt das Programm fest. Es besteht aus einer größeren Anzahl von Lerneinheiten, oder Frames, wie man in Anlehnung an die englischsprachige Terminologie auch sagt. Innerhalb eines Frames wird jeweils eine Information dargeboten, deren erfolgreiche Speicherung geprüft wird, bevor die nächste Lerneinheit bearbeitet wird." Mietzel (1998 a, 21)


Lernübertragung (Vgl. Schmitt (1999 a, 9)) 
Man spricht von Lernübertragung, wenn ein Verhalten (eine Einstellung), die unter bestimmten Bedingungen verstärkt wurde, auch in anderen, ähnlichen Situationen auftritt. 
Beispiel Lernübertragung:
Ein Klient, der in der Gruppenstunde eines Sozialarbeiters gelernt hat, sich mit Konflikten verbal auseinander zusetzen, wird sich wahrscheinlich zukünftig in Konfliktsituationen ähnlich verhalten.