Avatar von st.sch.
  • st.sch.

mehr als 1000 Beiträge seit 05.06.2012

Universitäten die zu Schulen verkommen sind, sollten sich nicht wundern

Die deutschen Universitäten sind doch nur noch ein Schatten ihrer selbst und schuld daran sind sie selber, denn sie haben mit sich machen lassen was Politik und Wirtschaft genehm war.

Auf wirklichen Universitäten lernt man jedenfalls zuallererst wissenschaftliche Arbeitsweisen und arbeitet nicht wie in der Schule eine Liste mit zu lernendem Wissen ab.

Bachelor, Master & Co. sind ihrem Wesen nach Bezeichnungen für berufliche Abschlüsse und nicht für Universitäre, nach dem Maßstab dessen was eine Universität eigentlich ist bzw. sein soll.

Bewerten
- +