B. F. Skinner teilte Thorndikes Ansicht, dass jegliches Verhalten durch bisher erlebte Verhaltenskonsequenzen beeinflusst werde. 1930 beschrieb Skinner seine Experimente mit der Skinnerbox (nach ihm benannte Variante eines Problemkäfigs), in der mit Ratten und Tauben Versuche durchführte. Skinner stützte sich dabei zunächst auf Thorndikes Arbeiten und entwickelte dessen Theorien weiter: Während sich Thorndike auf das grundlegende Versuch-und-Irrtum-Verhalten konzentrierte, rückte Skinner verschiedene Arten der Verstärkung als Konsequenz für ein gezeigtes Verhalten in den Mittelpunkt seiner Forschung.
Beispiel: Skinner sperrte eine Versuchsratte in einen Käfig, in welchem sich einige Signallampen zum testen der Differenzierung und Generalisation (siehe unten) sowie ein Fressnapf befand, der von Außen gefüllt werden konnte. Weiterhin gab es in diesem Käfig einen Hebel, der je nach Versuchstier und Versuchsanordnung eine andere Konsequenz darbot:
Operante Konditionierung | ||
|
Das Tier konnte auf verschiedene Zusätze konditioniert werden: Es gilt nicht nur eine Tätigkeit auszuführen (den Hebel zu betätigen), um die Reaktion auszulösen, sondern es muss eine zweite Bedingung (z.B. das Brennen einer Lampe) erfüllt sein.
Die Versuchstiere (in der Skinnerbox) hatten gelernt, durch das eigene Verhalten positive bzw. angenehme Konsequenzen ("satisfier") herbeizuführen und unangenehme Konsequenzen ("annoyer") zu vermeiden bzw. zu verringern.
"In Skinners Perspektive kann das Verhalten des Tieres vollständig durch äußere Erfahrungen (Stimuli aus der Umwelt) erklärt werden - durch die Nahrungsdeprivation und Einsatz von Nahrungsmitteln als Verstärkung." Zimbardo & Gerrig (1999, 208)
![]() Als Verstärkung zählt eine bestimmte Konsequenz, die über die Wiederholung des gezeigten Verhaltens entscheidet. Skinners Lerntheorie basiert auf dem Einsatz der Verstärkung nachdem ein "lernendes" Individuum eine erwünschte Verhaltensweise gezeigt hat. |
Beispiel: Ein Schüler kommt wiederholt verspätet
in den Schulunterricht. Da die Mitschüler bewundernd lachen und die Lehrer
nichts gegen den Regelverstoß unternehmen, empfindet der Schüler die Konsequenz
für sein Verhalten als positiv.
Durch diesen positiven Verstärker wird der Schüler voraussichtlich auch in
Zukunft zu spät kommen, um wieder in den Genuss des Verstärkers zu kommen.
Operant bedeutet, an bzw. in seiner Umwelt zu operieren (einzugreifen). Durch das Emittieren
einer Verhaltensweise ist es einem Individuum möglich, die Umwelt zu
beeinflussen. "Im wörtlichen Sinne bedeutet operant "die Umwelt
beeinflussend" oder "in ihr wirksam werdend" (Skinner
1938)." Zimbardo
& Gerrig (1999, 219)
Beim operanten Konditionieren ist demnach ein Individuum von sich
ausgehend aktiv, da es eine 'Operation' in der Umwelt vornimmt: Ein Verhalten wird gezeigt (vorgenommen, gemacht), welches die Reaktion der Umwelt
hervorruft (= Konsequenz auf das Verhalten). Operanten Verhalten muss nicht
geplant sein: Viele Verhaltensweisen der operanten Konditionierung werden
spontan emittiert.
Sicherlich könnten wir heute auch das Zusammenspiel mit kognitiven Prozessen diskutieren: der gedanklichen Vorwegnahme des Zustands, der mit dem Auftreten des Verstärkers erreicht wird. Im Sinne Skinners bleiben die gedanklichen Prozesse jedoch in der Blackbox des Behaviorismus unbeachtet.
Fällt Ihnen ein Verhalten ein, das Sie selbst aufgrund operanter Konditionierung erlernt haben?
Denkanstöße / Praxisbeispiele: ![]() ![]() ![]() ![]() ![]() ![]() ![]() [a] Er wird vom Lehrer und seinen Mitschülern gelobt. Um diese positive Konsequenz (satisfier) wieder zu erhalten, wird er in Zukunft ebenso handeln. [b] Seine Mitschüler lachen ihn aus und titulieren ihn als Streber. Um diese negative Konsequenz (annoyer) nicht wieder zu erhalten, wird er sein Verhalten zukünftig ändern. ![]() ![]() ![]() ![]() |
Zitate zur operanten Konditionierung: "Diese Abhängigkeit von dem nachfolgenden verstärkenden Reiz verleiht dem Begriff "Wirkreaktion" seine Bedeutsamkeit ... Die Wirkreaktion ... gewinnt für das Verhalten eine Bedeutung und nimmt eine identifizierbare Form an, wenn sie auf die Umwelt in dem Sinne einwirkt, daß ein verstärkender Reiz hervorgebracht wird (1938, Seite 22)." Hilgard & Bower (1973, 132) "Wir belohnen Menschen, wir verstärken Verhalten." Skinner (1986), zitiert nach: Mietzel (1998 a, 137) Exkurs zur instrumentellen Konditionierung: |
Merkmale
der operanten Konditionierung nach Skinner
Diskrimination
/ Differenzierungslernen
In Skinners Versuch lernte die Ratte, dass es nur Futter gibt, wenn
die Lampe leuchtet und der Hebel umgelegt wird. Das Tier kann demnach
zwei Zustände voneinander differenzieren: Licht aus = keine Möglichkeit an
Futter zu gelangen oder Licht an = Möglichkeit an
Futter zu gelangen (durch das Umlegen des Hebels).
Im Gegensatz zu der Generalisation wird das Verhalten nur in bestimmten
(= differenten) Fällen belohnt.
Löschung / Extinktion
Erhielten die Ratten keine Verstärkung (mehr) für ein gezeigtes Verhalten, so konnte Skinner nach einer gewissen Zeit der Nichtverstärkung das Verhalten immer seltener
beobachten.
Die Verhaltenshäufigkeit nimmt langsam ab, wenn das Verhalten nicht verstärkt wird.
Auf eine gezeigte Verhaltensweise erfolgt kein Verstärker mehr, die erwünschte
Konsequenz bleibt somit aus. Aufwand und Dauer einer Löschung sind abhängig
von der Lerngeschichte und von der Art der Verstärker (siehe unten).
"Unter Löschung versteht man beim operanten Konditionieren das
Ausbleiben der positiven Konsequenz auf ein bestimmtes, durch die positiven
Konsequenzen kontrolliertes Verhalten." Linden
& Hautzinger
(1996, 223)
Das Ausbleiben eines erwarteten Verstärkers kann auch als Strafe aufgefasst
werden. Eine Schwierigkeit besteht im Ausfindigmachen der Verstärker, da diese auch
irrational versteckt sein können.
Es kann vorkommen, dass bei Ausbleiben der positiven Konsequenzen zunächst
diese Verhaltensweise in deutlich stärkerer Form gezeigt wird.
Beispiel: Ein Kind schreit und bekommt die
Zuwendung der Mutter. Wenn die Mutter dem Kind auf das Schreien nun keine
Zuwendung mehr schenkt, kann es vorkommen, dass das Kind kurzfristig noch
deutlich klangvoller schreit, um doch noch in den Genuss der positiven
Konsequenz (der Zuwendung) zu kommen.
"Skinner z.B. versteht Vergessen als Verschwinden von Verhaltensweisen
aufgrund eines zeitbedingten langsamen Zerfallsprozesses."
Lefrancois
(1994, 163)
"Unter Extinktion (Löschung) versteht man die Abnahme der Häufigkeit eines gelernten Verhaltens aufgrund von Nichtverstärkung, bis es schließlich nur noch zufällig auftritt." Hobmair (1996, 152)
Unter spontaner Erholung (spontaneous recovery) versteht man das Zeigen von Verhaltensweisen, die durch ausbleibende Verstärkung bereits abgeschwächt wurden. Mitten im Prozess der Löschung wird das Verhalten ohne logische Begründung noch einmal gezeigt, obwohl es nicht mehr verstärkt (konditioniert) wurde.
Verstärkung
[PDF-Kurzfassung zu Verstärkung und Verstärkern!]
Skinner leitete aus seinen Experimenten das Prinzip der Verstärkung ab: "Verstärkung ist der Prozess, der dazu führt, dass ein spontan gezeigtes Verhalten vermehrt auftritt." Hobmair (1996, 149)
Beispiele Lernen durch Verstärkung:
- Ein Kind hilft seiner Mutter, weil es dafür Schokolade bekommt.
- Der Ehemann kocht, weil er dafür von seiner Frau gelobt wird.
- B. erfüllt sich seine Wünsche durch Ladendiebstähle, da er sich die Waren
nicht leisten kann.
- D. beteiligt sich aktiv am Grundschulunterricht.
Unter Verstärkung versteht man eine angenehme Folge.
Beispiele für eine angenehme Folge:
- Schokolade, die ein Kind für eine Leistung erhält.
- Lob, das ein Ehemann für seine Küchenaktivitäten bekommt.
- Erfüllte Wünsche durch den Ladendiebstahl.
- Fleißkärtchen für besonders gute Leistungen in der Grundschule.
"Erfolgt direkt auf ein Verhalten etwas, was als angenehm empfunden wird oder was zum Erfolg führt, dann tritt dieses Verhalten in Zukunft häufiger auf. Es ist durch die angenehme Konsequenz oder Folge verstärkt worden. Angenehme Folgen eines Verhaltens bezeichnen wir daher als Verstärkung. Eine Verstärkung erhöht die Häufigkeit einer Verhaltensweise oder die Stärke einer Einstellung." Schmitt (1999, 4)
Statt positiver Verhaltensweisen können auch negative Verhaltensweisen verstärkt werden.
Beispiel Verstärkung negativer Eigenschaften:
"Ein Betrunkener pöbelt in der Kneipe jemanden an und meint, der könne ihm ruhig mal ein Bier ausgeben. Um ihn zur Ruhe zu bringen, bezahlt der Mann ihm das Bier. Das Verhalten "andere anpöbeln, um ein Bier zu bekommen" wird dadurch verstärkt. Der Betreffende wird diese Verhaltensweise, sich kostenlos ein Bier zu beschaffen, wahrscheinlich zukünftig häufiger anwenden."
Schmitt
(1999, 4)
Man strebt danach, eine angenehme Folge wieder zu erleben und versucht aufgrund
vergangener Situationen ein Verhalten anzupassen.
Verstärker
differenziert nach der Wirkung
Positive
Verstärkung
Eine Verhaltensweise führt zur gewünschten positiven Konsequenz.
Beispiel positive Verstärkung:
- jemanden anlächeln, der sofort zurück lächelt;
- etwas bestellen, was ich sofort erhalte;
-
Herr N. fährt oftmals zu schnell. Trotz der permanent überhöhten Geschwindigkeit wird er weder von der Polizei
angehalten, noch passiert ihm ein Unfall, was dazu führt, dass Herr N. weiterhin zu schnell fährt.
Unter positiver Verstärkung versteht man ein Verhalten, dass in einer bestimmten Situation wiederholt gezeigt wird, weil die bisherigen Reaktionen auf dieses Verhalten positive Konsequenzen
brachten.
Dem Verhalten folgt ein positives Ereignis. Aus pädagogischer Sicht stellt die positive Verstärkung eine sinnvolle Methode dar, um über Belohnung und Erfolg
die Häufigkeit des Auftretens eines Verhaltens zu erhöhen.
"1. Ein positiver Verstärker ist ein Reiz, der zu einem Anstieg der
Auftretenswahrscheinlichkeit einer Wirkreaktion führt, wenn er zu einer
Situation hinzutritt. Beispiele für positive Verstärker sind Futter, Wasser,
sexueller Kontakt usw." Hilgard
& Bower (1973, 135)
"Unter positiven Verstärkern versteht man Reize und Ereignisse, deren
reaktionskontingente (d.h. unmittelbar anschließende) Darbietung dazu führt,
daß die Frequenz einer Verhaltensweise ansteigt [...]" Linden
& Hautzinger
(1996, 63)
Negative
Verstärkung
Eine Verhaltensweise führt dazu, dass eine unangenehme (aversive) Konsequenz
ausbleibt
(Flucht).
Beispiel negative Verstärkung:
- Langsames Fahren, um nicht 'geblitzt' zu werden.
- Aufsetzten der Sonnenbrille, um nicht mehr geblendet zu werden.
- Herr M. fährt sehr vorsichtig und langsam. Ihm passiert kein Unfall und er bekommt keine Probleme mit der Polizei, was er auch verhindern möchte.
Herr M. wird weiterhin vorsichtig fahren, um evtl. negativen Konsequenzen
vorzubeugen.
-
A. hat sich angewöhnt, seiner Nervosität durch autogenes Training zu
begegnen.
- B. hat die Erfahrung gemacht, dass sich seine Prüfungsangst vermindert, wenn er Beruhigungstabletten
nimmt.
Negative Verstärkung bedeutet ein Verhalten in einer bestimmten Situation zu zeigen, weil unangenehme Konsequenzen in der Vergangenheit durch dieses Verhalten vermieden oder beseitigt werden
konnten.
Dem Verhalten folgt das Ausbleiben eines unangenehmen (aversiven) Ereignisses, d.h. es kommt
nicht nur zu keiner Strafe für das Verhalten - einer Strafe wird (durch
Prophylaxe) aus dem Weg gegangen.
"2. Ein negativer Verstärker ist ein Reiz, der die
Auftretenswahrscheinlichkeit einer Wirkreaktion erhöht, wenn er aus einer
Situation herausgenommen wird. Beispiele hierfür sind etwa starker Lärm, ein
sehr helles Licht, extreme Hitze oder Kälte, ein elektrischer Schlag usw." Hilgard
& Bower (1973, 135)
"[...] unter negativen Verstärkern versteht man Reize und Ereignisse,
deren reaktionskontigente Entfernung bzw. Beendigung dazu führt, daß die
Frequenz einer Verhaltensweise ansteigt [...]." Linden
& Hautzinger
(1996, 63)
Positive
Bestrafung (auch als "Bestrafung Typ I"
bezeichnet)
Eine Verhaltensweise führt zu einer unangenehmen Konsequenz.
Beispiel positive Bestrafung:
- G. rennt auf einem nassen Flur, fällt hin und verstaucht sich den
Knöchel.
- H. spielt aus Langeweile mit einem Messer und fügt sich eine Schnittwunde zu.
Negative
Bestrafung
(auch als "Bestrafung Typ II" bezeichnet)
Eine Verhaltensweise führt dazu, dass eine angenehme Konsequenz ausbleibt.
Beispiel negative Bestrafung:
- J. ist gegenüber einer Kollegin gestern aggressiv gewesen und wird (dafür)
heute von ihr nicht begrüßt.
- L. beschwert sich über das Essen seiner Freundin, welche sich dafür in den
kommenden Wochen gänzlich weigert zu kochen.
Lernen durch Bestrafung
(Vgl. Schmitt
(1999 a, 9 - 14))
Folgt einem Verhalten eine unangenehme Folge, spricht man von Bestrafung. Durch Bestrafung sollen unerwünschte Verhaltensweisen/Einstellungen abgebaut werden, unerwünschte Verhaltensweisen/Einstellungen
werden jedoch nicht dauerhaft beseitigt, sondern nur kurzfristig unterdrückt oder abgeschwächt (Verhaltensunterdrückung).
Oft lernt man nur, die Bestrafung durch geschickteres Verhalten zu vermeiden. Ein angemesseneres, günstigeres Verhalten wird aber nicht gelernt.
Beispiel Verhaltensunterdrückung als Resultat der Bestrafung:
P. hat ein starkes Bedürfnis nach schnellen Autos. Da er sich ein solches Auto finanziell nicht leisten kann, stiehlt er immer wieder Sportwagen. Schließlich wird er erwischt und von einem Gericht zu einer erheblichen Geldstrafe verurteilt. Nach einem halben Jahr klaut er wiederum Sportwagen, jedoch macht er es dieses Mal geschickter, um nicht ertappt zu werden. Seine Einstellung gegenüber der Art der Beschaffung von schnellen Autos hat sich nicht geändert und war zwischenzeitlich nur abgeschwächt und unterdrückt.
Anstatt eines unerwünschten Verhaltens kann aber auch ein erwünschtes Verhalten bestraft werden.
Beispiel Bestrafung von erwünschten Verhalten:
Der Mitarbeiter R. kritisiert in angemessener Weise eine Anordnung seines Vorgesetzten, die er
für untragbar hält. Einige Zeit später wird er mit einer fadenscheinigen Begründung in eine andere Abteilung versetzt. Das eigentlich erwünschte Verhalten
'offen seine Meinung sagen' wurde durch diese Versetzung bestraft. Der Mitarbeiter wird nun wahrscheinlich seine Kritik lieber für sich behalten und vielleicht seinen Ärger zu Hause
ablassen.
Bestrafung kann aber auch darin bestehen, dass angenehme Folgen, die man auf bestimmte Verhaltensweisen/Einstellungen erwartet hat, nicht mehr eintreten oder entzogen werden. Der Entzug von Verstärkern stellt somit eine unangenehme Folge dar
(Entzug von Verstärkern = Bestrafung).
Ein Verhalten, das nicht mehr die erwartete Verstärkung ergibt, wird dann als sinnlos aufgegeben und nicht mehr gezeigt.
Beispiel Bestrafung durch den Entzug der erwarteten Verstärker:
Die Schülerin M. versucht durch Angeberei und Prahlerei Zuwendung von ihren Klassenkameraden zu bekommen. Da die Mitschüler ihre Prahlerei jedoch satt haben, ignorieren sie ihr Verhalten. Da C. auf diesem Wege keine Zuwendung bekommt, unterlässt sie das Prahlen.
"Bestrafung führt jedoch niemals
- zu einer Verstärkung eines erwünschten Verhaltens,
sondern immer nur
- zu einer kurzfristigen Abschwächung oder Unterdrückung eines
unerwünschten Verhaltens." Heineken
& Habermann (1994, 48)
Die Auftrittswahrscheinlichkeit einer Verhaltensweise kann mit einer Bestrafung,
besser jedoch mit dem Entzug von Verstärkern gesenkt
werden. Aus dem Lernen durch Bestrafung leitet sich z.B. die Aversionstherapie
her:
"Unter Aversionsbehandlung faßt man eine Reihe verschiedener
Behandlungsverfahren zusammen, denen gemeinsam ist, daß ein aversiver Reiz
zeitlich unmittelbar an ein klinisch unerwünschtes Verhalten gekoppelt wird.
Das Ziel solcher Behandlungsverfahren ist, das zukünftige Auftreten des
unerwünschten Verhaltens zu reduzieren." Linden
& Hautzinger
(1996, 93)
Krapp & Weidenmann (2001, 150) weisen darauf hin, "[...] dass mit einer Strafe lediglich ein unerwünschtes Verhaltens gestoppt, noch nicht aber ein erwünschtes Alternativverhalten aufgebaut wird."
Verstärker
differenziert nach der zeitlichen Wiederkehr / Auftreten der Verstärker
Kontinuierliche
Verstärkung / Immer-Verstärkung
Jedes Zeigen der gewünschten Verhaltensweise führt zu einer Belohnung
(Verstärker).
Kontinuierliche Verstärkung bedeutet jedes Mal zu verstärken, wenn das gewünschte Verhalten gezeigt wird.
Der Erwerb veränderter Verhaltensweisen erfolgt zwar schnell, die Stabilität ist jedoch
gering, d.h. das Verhalten wird schneller wieder verlernt.
Beispiel kontinuierliche Verstärkung:
- Y. bekommt für jeden Handgriff im Haushalt ein kleines Stückchen Schokolade.
- S. wird für jede Form der Höflichkeit gegenüber Fremden gelobt.
Intermittierende
Verstärkung / Manchmal-Verstärkung / Partielle Verstärkung
(engl.: 'intermittent reinforcement')
Das erwünschte Verhalten wird ab und zu verstärkt. Es wird nicht nach
jeder gewünschter Verhaltensweise verstärkt, sondern von Zeit zu Zeit.
Veränderte Verhaltensweisen werden zwar langsamer erlernt, bleiben jedoch
langfristiger erhalten und sind nicht (wie bei der kontinuierlichen
Verstärkung) von einer permanenten Verstärkung abhängig.
Beispiel intermittierende Verstärkung:
- Der Hund A. wird mit zunehmenden Alter immer seltener gestreichelt, wenn er
auf den Befehl 'Komm!' auch zu seinem Herrchen gekommen ist. Der Verstärker
(Streicheln) wird unregelmäßig erteilt.
- Der Satz "Dein Essen schmeckt zwar immer gut, heute ist es aber super!
Was ist denn da drin?" lobt einer hervorragende, unübliche Leistung der
Köchin/des Kochs und motiviert selbige(n), ein solches Mahl häufiger zu
bereiten.
"Zu den wichtigsten Erkenntnissen Skinners zählt die Entdeckung, daß Lernen im Anfangsstadium durch kontinuierliche Verstärkung erleichtert wird, daß aber die Löschungszeit durch intermittierende Verstärkung verlängert wird. Obwohl die meisten seiner Experimente an Tieren durchgeführt wurden, wird angenommen, daß diese Resultate im allgemeinen auch auf menschliches Verhalten übertragbar sind." Lefrancois (1994, 211)
"Löschung braucht länger, wenn das zu löschende Verhalten unter wechselnden, ungleichmäßigen (sog. intermittierenden) Verstärkungsbedingungen gelernt und aufrechterhalten wurde." Linden & Hautzinger (1996, 223)
Intermittierende Verstärkung bedeutet das Verhalten nur ab und zu zu verstärken. Neues Verhalten wird langsamer erworben, wird jedoch stabiler eingeprägt, d.h. das erlernte Verhalten bleibt länger erhalten.
Unterteilung in:
|
Optimales Verhalten:
Eine Mutter gibt ihrem Kind jedes Mal ein Bonbon und lobt es, wenn es versucht hat, sich allein anzuziehen. Sie baut dadurch das Verhalten "sich
selbstständig anziehen" durch "immer Verstärkung" auf. Je besser das Kind das Verhalten beherrscht, desto seltener bekommt es ein Bonbon. Schließlich braucht die Mutter auch nur noch hin und wieder zu loben. Das Verhalten ist selbstverständlich geworden und das Kind ist stolz auf seine Leistung. Die Mutter geht also zur Machmal-Verstärkung über und fördert so die Selbstverstärkung durch das Kind
('Stolz').
Drei wesentliche Merkmale der Selbstverstärkung:
"- Das Individuum verabreicht sich selbst die Verstärker. Im Gegensatz zu
den bisher besprochenen Beispielen sind Subjekt und Objekt in einer Person
vereint.
- Das Individuum muß frei über die Verstärker verfügen können.
- Das Individuum verstärkt sich nicht nach Belieben, sondern nur nach Auftreten
spezifischer Verhaltensweisen." Edelmann
(1996, 120)
Nicht alle Verhaltensweisen/Einstellungen werden durch Selbstverstärkung aufrechterhalten. Es gibt auch Verhaltensweisen/Einstellungen, die durch regelmäßige materielle Belohnung (z.B. Berufsausübung) oder soziale Anerkennung (z.B. Ehrenämter) aufrechterhalten werden. Die Verstärkung ist demnach 'wertvoller', wenn man sie nicht zu oft erhält und abstumpft.
Dadurch, dass der Verstärker nur noch ab und zu vergeben wird, verliert er weniger seinen Wert und es kommt nicht so leicht zu einer Übersättigung; das Verhalten wird unabhängiger von den äußeren Folgen und wird nicht so schnell aufgegeben, wenn die Verstärkung hin und wieder ausbleibt; dadurch, dass äußere Folgen für eine Verhaltensäußerung an Bedeutung abnehmen, wird der Lernende auch unabhängiger von der Verstärkung durch andere (Fremdverstärkung). Damit wird gleichzeitig der Übergang zur Selbstverstärkung gefördert. Bei der Selbstverstärkung fördern innere Folgen wie z.B. "Stolz" oder "Zufriedenheit" die Verhaltensweisen/Einstellungen, die zu diesen angenehmen Gefühlen führten. Die Kontrolle und auch die Verantwortung über ein geäußertes Verhalten liegt in der betreffenden Person und nicht mehr wie bei der Fremdverstärkung bei anderen Personen. Somit ist die Förderung der Selbstverstärkung mit ihren positiven Auswirkungen auf die Persönlichkeitsentwicklung (Selbstständigkeit, Unabhängigkeit) ein erwünschtes Erziehungsziel.
Arten der Verstärker
(Vgl. Schmitt
(1999 a, 5) und Linden
& Hautzinger
(1996, 63))
Als primäre Verstärker dienen Konsequenzen, die zur Befriedigung von physiologischen
(Grund-) Bedürfnissen führen (wie z.B. Wasser, Nahrung, sexueller Kontakt, ...).
Sekundäre Verstärker sind nicht lebensnotwendig (z.B. Lob, Noten, Erlaubnis zum Spielen zu gehen, ...).
Materielle Verstärker: Wie der Begriff schon sagt, bestehen sie aus 'Material' (z.B. Geld, Blumen,
Süßigkeiten, Musik-CD, ... auch das Gehalt eines Angestellten stellt einen materiellen Verstärker dar).
Diese Art von Verstärkern sind in der Regel mit finanziellem Aufwand verbunden und fördern daher auch eine materielle Abhängigkeit. Handlungsverstärker bestehen in angenehmen Tätigkeiten oder Handlungen (z.B. Kinobesuch, Fernsehen, Lesen, Schwimmen gehen, Spielen, Musik hören, ...)
Soziale Verstärker (auch: Handlungsverstärker): Diese Verstärker sind nicht
immer an Kosten gebunden und werden häufig im Beisein von anderen Personen ausgelebt.
Sie verhindern eher eine materielle Abhängigkeit und fördern Freizeitaktivitäten und
Sozialverhalten. Soziale Verstärker bestehen aus einem angenehmen zwischenmenschlichen Kontakt (z.B.
Lob, Streicheleinheiten, aufmerksames Zuhören, Beifall klatschen, ...).
"Diese Form der Verstärkung kann am einfachsten und unmittelbarsten vergeben werden und kostet kein Geld. Sie wirkt sich am günstigsten auf die Entwicklung eines angemessenen Sozialverhaltens und einer reifen Persönlichkeit (Selbstwertgefühl, Selbstbewusstsein, Verhaltensbewusstsein, usw.) aus. Die Ablösung von materieller Verstärkung durch soziale Verstärkung sollte Ziel jeder Verstärkerplanung sein. Ein neu gelerntes Verhalten sollte möglichst durch den Einfluss natürlicher mitmenschlicher Beziehungen aufrechterhalten werden." Schmitt
(1999 a, 5)
Merkmale der Verstärkung
(Vgl. Schmitt
(1999 a, 6 - 8))
Bei der Verstärkung sollte man beachten, dass nicht jedes Individuum mit den gleichen Verstärkern belohnt werden kann: Die grundlegende Haltung und die Präferenzen des jeweiligen Individuums legen die Verstärker individuell fest. Z.B. kann ein Junge, der keinen Spinat mag, nicht mit dieser Speise verstärkt werden. Der Spinat stellt für den Jungen keine angenehme Folge dar.
Weiterhin kann ein einziger Verstärker in verschiedenen Situationen unterschiedlich wirken:
Ob eine Folge eine verstärkende Wirkung hat, hängt also von unserer Bedürfnislage, unseren Ansprüchen und unseren Erwartungen
ab.
Beispiele zur Tauglichkeit eines Verstärkers:
- Wenn K. gerade einen großen Eisbecher gegessen hat, freut sie sich deutlich weniger über einen weiteren
Eisbecher als vor dem ersten.
- Wenn E. allein und einsam ist, freut er sich über einen Anruf. E. ärgert sich dagegen über einen Anruf, wenn er dadurch bei einer interessanten Fernsehsendung gestört wird.
Weiterhin sind Verstärker kulturabhängig: In unserer Kultur werden beispielsweise Prestige, sozialer Status, Macht, Reichtum, Berühmtheit, Stärke und Intelligenz hoch angesehen. Vgl. Lefrancois (1994, 37)
Auch die Person, die ein Verhalten verstärkt, spielt eine Rolle: Bedeutungsvolle Personen (z.B. Vorgesetzter, bester Freund, Ehepartner, ...) besitzen einen höheren Verstärkungswert als Personen, die dem Lernenden unwichtig oder gleichgültig sind.
Z.B. ist ein Lob für eine gute Arbeit vom Vorgesetzten für die betroffene Person deutlich mehr wert (im Sinne der Verstärkung) als dasselbe Lob vom Auszubildenden der Unternehmung, der in der Firmenhierarchie unter
ihm selbst steht.
Shaping
(stufenweise Annäherung)
Bei Anpassungsleistungen wurde oft beobachtet, dass sich die Verhaltensweisen, die erlernt bzw. angeeignet werden sollen,
schrittweise einstellen. Komplexe Verhaltensweisen sind oftmals (besonders bei Kindern) unmöglich auf einmal zu erlernen. Deshalb muss das (Ziel-) Verhalten in kleine Unterschritte aufgeteilt werden, die es nacheinander zu durchlaufen gilt. Nachdem ein Teilschritt erfolgreich abgeschlossen wurde, werden die Anforderungen leicht erhöht. Unter Verhaltensformung versteht man einen sukzessiven (= nacheinander, schrittweise) Aufbau eines erwünschten, komplexen Verhaltens, indem jede Annäherung an das gewünschte Verhalten verstärkt
wird.
Skinner bezeichnete die schrittweise Verhaltensmodifikation als "shaping of behavior" (Verhaltensformung).
Beispiel: Verhaltensformung (‚Shaping of behavior’)
Ein Kleinkind soll lernen, sich selbst die Schuhe mit einer Schleife zuzubinden:
Schritte, die jeweils verstärkt werden: Das Kind hält ein Schuhband fest, das Kind legt die Schuhbänder übereinander, das Kind macht eine Schlaufe für die Schleife, das Kind bindet sich den Schuh mit einer Schleife.
Ist schließlich das Zielverhalten erreicht oder aufgebaut worden, so bedarf es noch der Aufrechterhaltung und Verfestigung. Ein Verhalten wird am wirksamsten aufrechterhalten, wenn die Immer-Verstärkung von der gelegentlichen Verstärkung (Machmal-Verstärkung) abgelöst wird.
"Dresseure kennen sich in dieser Methode gut aus. Als eine Art Bravourleistung habe ich, angeregt durch neuere Untersuchungen an Menschenaffen, einer Ratte eine komplizierte Reaktionsabfolge beigebracht. Das Verhalten besteht darin, daß das Tier an einer Leine ziehen muß, um eine Murmel von einem Gestell herunterzuholen. Sodann ist die Murmel mit den Vorderpfoten aufzuheben, zu einer zwei Zoll über den Boden des Käfigs hinausragenden Röhre zu tragen und schließlich dort hineinzuwerfen. Jede Phase dieses Vorganges mußte in mehreren Näherungsschritten eingeübt werden, weil die darin enthaltenen Reaktionen nicht zum ursprünglichen Repertoire der Ratte gehörten (1938, Seite 339-340)." Hilgard & Bower (1973, 150)
"Bei der stufenweisen Annäherung handelt es sich um eine Methode, bei der aufeinanderfolgende Annäherungen differentiell verstärkt werden (Skinner, 1951). Der Versuchsleiter verstärkt hierbei jeden Schritt, der das Tier der endgültigen Reaktion näher bringt, ..." Lefrancois (1994, 41)
"Unter Benutzung der von ihm so bezeichneten Methode der sukzessiven Annäherungen oder der Verhaltensformung gelang es Skinner, Tauben das Ping-Pong-Spiel zu lehren." Krech & Crutchfield (1992, Band 3, S. 36)
"Sein [Skinners] Programm war so aufgebaut, daß es den Lernenden durch eine Reihe sorgfältig geplanter Lernschritte führt. Die Reihenfolge der einzelnen Lernschritte legt das Programm fest. Es besteht aus einer größeren Anzahl von Lerneinheiten, oder Frames, wie man in Anlehnung an die englischsprachige Terminologie auch sagt. Innerhalb eines Frames wird jeweils eine Information dargeboten, deren erfolgreiche Speicherung geprüft wird, bevor die nächste Lerneinheit bearbeitet wird." Mietzel (1998 a, 21)
Lernübertragung
(Vgl. Schmitt
(1999 a, 9))
Man spricht von Lernübertragung, wenn ein Verhalten (eine Einstellung), die unter bestimmten Bedingungen verstärkt wurde, auch in anderen, ähnlichen Situationen auftritt.
Beispiel Lernübertragung:
Ein Klient, der in der Gruppenstunde eines Sozialarbeiters gelernt hat, sich mit Konflikten verbal auseinander zusetzen, wird sich wahrscheinlich zukünftig in Konfliktsituationen ähnlich verhalten.