Laden...

Müssen Programmierer Mathematik-Genies sein?

Letzter Beitrag vor 15 Jahren 75 Posts 36.183 Views
Müssen Programmierer Mathematik-Genies sein?

Oft heisst es, dass Programmierer Mathematik- Genies sind/waren.

Seid ihr auch gut in Mathematik (gewesen)?

Gruss Thomas

Gespräch zweier Informatiker:
"Wie ist denn das Wetter bei euch?"
"Caps Lock."
"Hä?"
"Na ja, Shift ohne Ende!"

Hallo Thomas

Oft heisst es, dass Programmierer Mathematik- Genies sind/waren.

Wieder mal so eine Aussage mit der ich nicht viel anfangen kann 😉

Erstens müsste man "Programmierer" definieren, denn nicht jeder der "if(" schreiben kann, ist ein Programmierer (Look grandma it`s a programmer g).

Und dann die Definition eines Mathe-Genies, wobei das schon eher denkbar ist.

Seid ihr auch gut in Mathematik (gewesen)?

Auf jeden Fall kein Genie 😃
Ich denke wenn du nicht gerade in der Spieleindustrie als Entwickler arbeitest, ist Mathematik gar nicht soo wichtig in der Softwareentwicklung, zumindest brauchst du kein Genie sein.

Wichtiger finde ich, dass man weiss wo und wie Informationen beschafft werden können und diese dann auch gekonnt anzuwenden.
Dafür brauchts halt ein gutes Vorstellungsvermögen, logisches Denken, etc...
Das halte ich um einiges wichtiger als Mathe.

Gruss Peter

--
Microsoft MVP - Visual Developer ASP / ASP.NET, Switzerland 2007 - 2011

also der Aussag von Peter Bucher kann ich voll und ganz zustimmen.

Solang man keine 3d-anwendungen Programmiert, ist Logisches Denken um einiges wichtiger als Mathematik (was nicht bedeuten soll das 3d-programmierer nicht logisch denken können)

Also ich geh ja noch zur Schule, und da bin ich eig relativ gut in Mathe (Komischerweise nur im Unterricht, aber in den Schulaufgaben nicht O.o?)

Hi,

Mathe war immer eines meiner Lieblingsfächer. 🙂
Ein Genie war ich nicht, aber für eine 1 oder 2 als Jahres-Note reicht's alle mal. 🙂

Gruß
Juy Juka

Wenn Mathe so wichtig wäre, um guter Software-Entwickler zu sein, dann müsste ich nicht immer herkommen und blöde Fragen stellen.

Mathematik ist wirklich nicht so wichtig in der Informatik, außer man ist in der Forschung (Verschlüsselung, Komprimierung etc) oder in der 3D-Programmierung ernsthaft tätig.

Für die meisten Entwickler ist es viel mehr wichtig, das Framework, die Bibliotheken und die Entwicklungsumgebung zu kennen. DA liegt der Knackpunkt. ich weiß nicht, wie es bei euch ist, aber bei mir zieht sich das ganz schön in die Länge mit dem Kennenlernen.... 🙁

Servus,

ich stimme ebenso den anderen zu. allerdings finde ich das Mathematik in der Informatik überbewertet wird. grundrechenarten sollte allerdings jeder können und auch die wörter vector, wurzel, potenz etc schon mal gehört haben und wissen damit was anzufangen. alles andere muss auch ein genie nachschlagen. Der vorteil eines Genies ... er weißt sofort wo er nachschaun muss 😉 und verschwendet keine zeit mit quellen suche.

Wobei ich dazu sagen muss... mir würde jetzt kein spiel bzw 3d-programmierung, verschlüsselung oder komprimierung einfallen die in c# umgesetzt wäre.
Aber ich hoff mal das deine Frage eher allgemein bezogen ist 😄

Grüße

**Nur die Kenner können mit 10 Fingern bis 1023 zählen !!**
private int Main()
{
   string programmingSkills = getMySkills("programming")
   return = 1;
}

Natürlich ist es immer abhängig vom jeweiligen Aufgabengebiet wie wichtig ein fundiertes mathematisches Wissen für einen Softwareentwickler ist. Eine gesunde Basis sollte man allerdings mitbringen um bei Projekten die etwas mehr Mathematik erfordern nicht unter die Räder zu kommen.
Derzeit beschäftige ich mich mit einem Qualitätsmanagement Produkt für medizinische Labore, hierfür ist schon einiges mehr Mathematik notwendig als in früheren Projekten.

Allgemein gilt wohl das Menschen mit einer guten Allgemeinbildung schneller auf neue/veränderte Problemstellungen reagieren können.

"Eine wirklich gute Idee erkennt man daran,
dass ihre Verwirklichung von vorneherein ausgeschlossen erscheint."
(Albert Einstein)

Wobei ich dazu sagen muss... mir würde jetzt kein spiel bzw 3d-programmierung, verschlüsselung oder komprimierung einfallen die in c# umgesetzt wäre.

Neverwinter Nights 2, sharpziplib(ok, is zwar nur ne komponente, aber es gibt wohl einige große programme die es verwenden), und für verschlüsselung liese sich bestimmt auchnochwas finden

Ich bin ein hobbyist und gehe noch zur Schule. In Algebra bin ich ganz gut und hab deshalb gute Noten. (Was nicht heißen soll, dass ich Kopfrechnen kann. 😄)
Ich bin durchs proggen auf jeden fall deutlich besser geworden. Ob man Mathe braucht oder nicht hängt viel davon ab, was man macht.

Beim 3d Billardspiel bin ich aber daran gescheitert, die Tore einzubauen.

Ansonsten hilft ein CAS immer gerne.

Ich hab die Haare schön!!

Hallo,
erfahrungsgemäß haben sehr viele Informatik-Studenten bei uns sehr große Probleme mit den Mathematik Vorlesungen, die zusammen mit Physiker und Mathematiker abgehalten werden. Die machen immer 3 Kreuze wenn alle Mathe-Vorlesungen vorüber sind.

Auch wenn das Ziel eines Informatik Studiums nicht die Programmierung ist, kann man nicht sagen, dass Informatik-Studenten Mathe-Genies sind.

Dabei sei aber erwähnt:
Echte Mathematik hat nur sehr wenig gemeinsam mit Schul-Mathematik. In der Schule gehts ums stupide Anwenden von Formeln, Lösungswegen, Algorithmen und man soll irgendwelche Sachen ausrechnen, wobei der allgemeine Weg bereits vom Lehrer geliefert wird (Beispiele: Extrempunkte bestimmen, Abstand zweier Geraden im Raum etc.). Für diese allgemeinen Wege setzt man dann seinen Spezialfall ein (z.B. f(x) = 2x^2) und berechnet das Ergebnis.

Richtige Mathematik ist anders. Dort geht es um das Beweisen von Aussagen, das Zeigen der Gültigkeit einer Aussagen. Viel gerechnet wird dort nicht mehr (als Mathe Student braucht man fast nie seinen Taschenrechner) und Zahlen tauchen auch in den meisten Vorlesungen nur noch selten auf.
Dort beweist man dann Aussagen wie: 'Wenn f'(x) = 0 und f''(x) != 0, so hat f im Punkt x ein lokales Extremun (d.h., in der Nähe um den Punkt x sind alle Werte von f größer gleich (Minimum) oder kleiner gleich (Maximum) als der Wert f(x)). Die Umkehrung ist im Allgemeinen falsch.'
Die Anwendung solch einer Aussagen um konkrete Extrempunkte einer Funktion zu berechnen interessiert einen dann meistens nicht mehr.

Damit tun sich sehr viele Informatiker sehr schwer. Mag sein das die in der Schulmathematik gut waren (wie gesagt, nur stupides Anwenden von Lösungsverfahren in der Schule), hier an der Uni haben aber fast alle Informatiker ein Gräul gegen die Mathe-Vorlesungen.

(Achja, selbst wenn man in der Schule in Mathe immer eine 1 mit Sternchen hatte, heißt dies nicht, dass man die Hochschulmathematik packt).

Für die meisten Entwickler ist es viel mehr wichtig, das Framework, die Bibliotheken und die Entwicklungsumgebung zu kennen.

Naja hier sollte man zwischen Programmierer und Software-Entwickler unterscheiden. Ein Programmierer sollte gut programmieren können, womit er das Framework, Bibliotheken etc. gut kennen sollte.
Ein Software-Entwickler sollte gut Software entwerfen können, dies ist viel mehr als irgendeine Programmiersprache zu kennen. Ich kenn einige (professionelle) Software-Entwickler, die bei den Feinheiten einer Programmiersprache große Wissenlücken haben, da sie seit längerer Zeit nur Software entworfen haben, ohne diese dann zu implementieren. Die scherzen dann gerne, dass die primär im Job nur malen würden. Würde die die Software dann implementieren, kämen keine besonders schönen Lösungen dabei heraus.

Ansonsten hilft Mathematik einem schon, auf einer abstrakteren Eben zu denken. Zwar braucht man oft nicht das mathematische Wissen zu einem bestimmten Bereich, die Denkweise und Herangehensweise ist aber auch für Informatik sehr hilfreich.

Außerdem schärft (zumindest Hochschulmathematik) auch das analytische Denken, welches ungemein wichtig ist, auch in der Software Entwicklung.

Oft heisst es, dass Programmierer Mathematik- Genies sind/waren.

Wer behauptet denn so etwas?

Was ist ein Genie? Das einzige relevante Kriterium könnte ein IQ von mehr als 132 (nach Wechsler). Aber was heißt das für Mathematik? Eher nichts!

Seid ihr auch gut in Mathematik (gewesen)?

Das ist eine ganz andere Frage, aber auch irrelevant. In meiner Gymnasialzeit bin ich von Note 1 (Klasse 1) auf 4 (Klasse 5) abgesunken und bis zum Abi wieder auf 1 gestiegen (Punkte wurden erst "nach meiner Zeit" eingeführt). War ich also gut?

Und das Mathe-Studium habe ich nur mit Hängen und Würgen abgeschlossen. Erst nach dem Ende des Studiums habe ich gemerkt, dass Programmierung für mich viel besser gewesen wäre (beim Studienbeginn 1969 wurde Informatik gerade erst an der TU Berlin richtig eingeführt, und PCs kannte man noch lange nicht).

Allgemein gilt wohl das Menschen mit einer guten Allgemeinbildung schneller auf neue/veränderte Problemstellungen reagieren können.

Das ist doch viel wichtiger.

Echte Mathematik hat nur sehr wenig gemeinsam mit Schul-Mathematik...
Richtige Mathematik ist anders. Dort geht es um das Beweisen von Aussagen, das Zeigen der Gültigkeit einer Aussagen. Viel gerechnet wird dort nicht mehr (als Mathe Student braucht man fast nie seinen Taschenrechner) und Zahlen tauchen auch in den meisten Vorlesungen nur noch selten auf.

Ich habe den starken Verdacht: Bei meiner Examensarbeit hatte ich zwei Fortran-Programme benutzt; das hat meine Note vermutlich eher gedrückt.

Gruß und Frohes Neues Jahr! Jürgen

Hallo zusammen,

also ich finde die Mathematik auch nicht so wichtig.
Man muss zwar ein paar Grundkenntnisse haben und auch etwas mehr Mathematik könnte nützlich sein, aber man muss kein Genie sein.

Wichtig ist das logische Denken und die Fähigkeit Google zu benutzen 😃

Ich interessiere mich viel mehr für die Programmierung als für Mathematik und das sieht man dann bei den Noten 😉

Gruss
Michael

Also das wichtigste aus der Mathematik das der allgemeine (-> nicht 3d) Entwickler braucht ist die Boolsche Algebra... teilweise ist für WinForms/Control Programmierung noch etwas Trigonometrie interessant. Viel wichtiger ist aber logisches und abstraktes Denken.

(meine Meinung)

loop:
btst #6,$bfe001
bne.s loop
rts

Ich denke, Programmieren wie auch das Betreiben der Mathematik erfordert einen hohen Grad an Abstraktion, daher kommt vermutlich auch das Gerücht, dass Programmierer gut in Mathe seien. Früher war Quellcode noch wesentlich kryptischer als heute und genauso wie komplizierte mathematische Formeln für viele Leute Hieroglyphen sind, waren es "Computercodes".

Ausserdem, das darf nicht vergessen, Computer sind Rechenmaschinen und wurden vor allem in ihren Anfängen in erster Linie dafür gebraucht, komplexe Berechnungen durchzuführen.

Ausserdem:
Was ist denn die Mathematik letztendlich anderes, als eine universelle Sprache, die bestimmten Regeln und Gesetzen folgt (die wir selbst definieren). Mit den Programmiersprachen verhält es sich ähnlich. Wir definieren diese Sprachen um Abläufe zu steuern oder Gegebenheiten zu beschreiben. Nichts anderes tut die Mathematik, wenn auch ungleich universeller und mächtiger.

Es gibt kein Ding auf dieser Erde, das man nicht mathematisch sehen könnte.

Shift to the left, shift to the right!
Pop up, push down, byte, byte, byte!

YARRRRRR!

Ich bin sehr gut in Mathematik (sogar der Klassenbeste).
Was ich aber Langweilig finde, sind die teilweise stupiden Aufgaben, bei denen man nur ein bestimmtes Schema anwenden muss, was nicht einmal alle verstehen.

Obwohl ich erst 15 Jahre alt bin, irritieren mich einige Einstellungen zur Mathematik zutiefst.

Was ist denn die Mathematik letztendlich anderes, als eine universelle Sprache, die bestimmten Regeln und Gesetzen folgt (die wir selbst definieren).

Mathematik ist doch gerade eben im Gegensatz zur Informatik nicht zufällig!
Die Schreibweise vielleicht, aber der Hintergrund, um den es geht, der ist aufgebaut auf einem komplett logischen Fundament.
Erstaunlicherweise ist die Mathematik dennoch nicht wiedersprüchlich (Godel, Unvollständigkeitssatz), aber das liegt nicht an der anscheinend "zufälligen Zusammensetzung", sondern ist eine logische Schlussfolgerung aus logischen Annahmen.


naja mathematik ist doch aus der physik enstanden

(Aus Mathematik - Fluch oder Segen?)

Das ist auch wieder falsch. Die Mathematik ist das Werkzeug zur Physik, aber umgekehrt gesehen ist die Physik eine Anwendung der Mathematik. Die Mathematik ist rein logisch, die Physik beschreibt die Welt (und das ist auch nicht willkürlich!). Der Haken der Physik ist, dass man die Sachen nicht beweisen kann und so eine Aussage nicht bestätigt werden kann, nur widerlegt.
Manchmal stimmt es, dass die Mathematik für und von der Physik weiterentwickelt wurde, aber trotzdem, ich wiederhole, ist die Mathematik das logische Fundament, auf dem die Physik die Welt beschreibt.
Übrigens: Die Mathematik war zuerst da.

Die Informatik selbst baut zwar schon auf Mathematik auf, aber mit den Programmiersprachen kommt man (leider) auch um die Mathematik herum. Dennoch glaube ich, dass jemand, der logisch Denken kann sowohl gut in Mathe, als auch in Informatik ist.
Logisches Denken ist in der Mathematik sogar noch wichtiger.

(Das ist jetzt alles sehr absolut formuliert, ist aber nur meine Meinung (von der ich wiederum überzeugt bin)

Hallo,

also ich kann mich inhaltlich Peter Bucher und Qwald vollkommen anschließen. Ich arbeite als Teilzeit-Juniordeveloper und studiere Informatikauf auf der TU in Wien.

Ich war in der HTL immer einer der besten in Mathe. Doch die Mathematik die sie auf der Uni verlangen ist was ganz was anderes. Ja, diese Art lässt mich nicht mehr so glänzend dastehen ...

Aber es sind - Gott sei dank - nur zwei Semester Mathematik vorgesehen. Also soviel zur Geniefrage.

PS:

Die Vorliebe meines Professors Dinge "interessanter" zu machen indem er anstatt mit reelen Zahlen plötzlich in Restklassen rechnet, können hier meine Meinung vielleicht etwas beeinflussen.

As a man thinketh in his heart, so he is.

  • Jun Fan
    Es gibt nichts Gutes, außer man tut es.
  • Erich Kästner
    Krawutzi-Kaputzi
  • Kasperl

Hallo alle miteinander,

ich würde mich da den Vorpostern anschließen und behaupten, dass heutige Informatik (bzw. hier im Speziellen das Programmieren) wenig mit Mathematik zu tun hat. Und insbesondere Schul- nichts mehr mit Hochschul-/moderner Mathematik (das erfahre ich gerade als Mathe Student am eigenen Leib - Aber es macht Spaß 😛 ).
Klar gibt es immer Teilgebiete in denen das nicht unbedingt der Fall ist (z.B. Laufzeitkomplexität oder Algorithmen im Allgemeinen), dennoch ist das Programmieren an sich als Vorgang eher losgelöst von der Mathematik.
Auch wenn sich beide Tätigkeiten ähneln mögen ("kryptische" Wörter und Zeichen zu schreiben), ist doch das Beweisen, was in der Mathematik grundlegend und wichtig ist, etwas ganz anderes, als dem PC zu erklären, was er zu tun hat. Einschränkungen würde ich nur bei Modellierung von Systemen und Problemen machen, weil man hier bei beiden mit den zur Verfügung stehenden Werkzeugen ein Problem abbildet und damit vereinfachen möchte.

Daher seh ich hier den Zusammenhang, dass gute Informatiker auch gute Mathematiker und umgekehrt sind, im Allgemeinen ebenfalls nicht. Das mag in den Pionirzeiten so gewesen sein, ist aber heute definitiv nicht mehr so.

Was aber durchaus interessant ist, ist die Tatsache, dass die Informatik aus der Mathematik entstanden ist. Das sieht man deutlich, wenn man Formalisierungen wie z.B. Turing-Maschinen anschaut. Hier wird nämlich auch viel bewiesen (z.B. Halteproblem, NP-Vollständigkeit, P=NP Problem, etc.).

Hallo See-Sharp,

Erstaunlicherweise ist die Mathematik dennoch nicht wiedersprüchlich (Godel, Unvollständigkeitssatz), aber das liegt nicht an der anscheinend "zufälligen Zusammensetzung", sondern ist eine logische Schlussfolgerung aus logischen Annahmen. Sieh dir nochmal die Unvollständigkeitssätze von Gödel an. Ich für meinen Teil finde das einen äußert wackeligen Boden, den man einfach akzeptieren muss. Widerspruchsfreiheit und Vollständigkeit kann man eben bewiesenermaßen nicht gleichzeitig haben (ich schließe hier bewusst sog. "künstliche" Modelle/Systeme aus, die man zumindest momentan noch nicht vernünftig anwenden kann).

So, das wars,
NeuroCoder

Mathematik ist doch gerade eben im Gegensatz zur Informatik nicht zufällig!
Die Schreibweise vielleicht, aber der Hintergrund, um den es geht, der ist aufgebaut auf einem komplett logischen Fundament.

Ich weiss zwar nicht, wie du jetzt auf Zufall kommst, aber eines ist relativ sicher: Wie die Logik unseres Systems funktioniert, definieren wir selbst.

Im übrigen kann ich nicht nachvollziehen, wie du in diesem Kontext das Wort "zufällig" gebrauchst. Was ist denn an der Informatik "zufällig"?

Die Informatik selbst baut zwar schon auf Mathematik auf, aber mit den Programmiersprachen kommt man (leider) auch um die Mathematik herum.

Was meinst du damit genau?

Shift to the left, shift to the right!
Pop up, push down, byte, byte, byte!

YARRRRRR!

das mit dem "zufall" würd ich aber auch mal genauer erklärt haben.....
ich weiß nicht wie du das machst aber meine implemetationen sind nicht zufällig oO... und auch das was dahin passiert nicht ..... und um die mathematik kommst du auch nicht herum... weil es letztendlcih immer darauf hinaus läuft und spätenstens dann wenn es richtig low level wird du ohne nicht zurecht kommst... da ja dummer weise ein prozessor keine minus zahlen kennt 😄 .... dummes ding ^^....

obwohl es ein typischer lehrerspruch ist... wie gmlod schon gesagt hat... du findest mathematik über all wieder. und du wirst nie drum herum kommen 😄

**Nur die Kenner können mit 10 Fingern bis 1023 zählen !!**
private int Main()
{
   string programmingSkills = getMySkills("programming")
   return = 1;
}

Ich weiss zwar nicht, wie du jetzt auf Zufall kommst, aber eines ist relativ sicher: Wie die Logik unseres Systems funktioniert, definieren wir selbst.

Für mich gilt: selbst definiert = willkürlich festgelegt = zufällig
Diese Einstellung musst du jedoch nicht unbedingt mit mir teilen.

Im übrigen kann ich nicht nachvollziehen, wie du in diesem Kontext das Wort "zufällig" gebrauchst. Was ist denn an der Informatik "zufällig"?

das mit dem "zufall" würd ich aber auch mal genauer erklärt haben.....

Das eben die Informatik am Anfang irgendwie definiert wurde, also indem ein Computer mit Stromstössen gebaut wurde.
Hätte man damals mit einem Quantencomputer angefangen, wäre das programmieren sicher anders.

Noch mehr "selbst definiert" ist die Programmiersprache. Das ist aber insofern ok, da man irgend eine Verständigung der Stromstösse und dem Programmierer benötigt. Das ist aber in der Mathematik das einzig selbst definierte.

Die Informatik selbst baut zwar schon auf Mathematik auf, aber mit den Programmiersprachen kommt man (leider) auch um die Mathematik herum.
Was meinst du damit genau?

Ich behaupte, dass jemand, der keine Ahnung von Mathematik hat (ausser vielleicht den Grundrechenarten) ein gutes Programm schreiben kann.

Wenn ich jetzt schreibe, dass ich ohne Probleme solche Sachen wie

998² im Kopf ausrechnen kann, wird mir das sowieso vorerst keiner glauben, aber wer doch wissen will wie das geht, der befasse sich ein wenig mit vedischer Mathematik und viele von euch werden sehen, die alten Inder hattens eben drauf. Warum umständlich wenn's auch ganz einfach (manchmal auch auf fast unglaubliche Weise) geht.

Ist aber alles logisch erklärbar, wenn man sich auch die Beweise dazu durchliest oder erarbeitet... 😉

Also ich interessiere mich dafür.

Seit der Erkenntnis, dass der Mensch eine Nachricht ist, erweist sich seine körperliche Existenzform als überflüssig.

Für mich gilt: selbst definiert = willkürlich festgelegt = zufällig
Diese Einstellung musst du jedoch nicht unbedingt mit mir teilen.

Dann muss ja gerade die Mathematik hochgradig willkürlich für dich sein. Du tust ja gerade so, als ginge es in der Mathematik um unumstößliche Gesetze. Das stimmt doch aber gar nicht. In der Mathematik legen wir diese Gesetze fest.

Das eben die Informatik am Anfang irgendwie definiert wurde, also indem ein Computer mit Stromstössen gebaut wurde.
Hätte man damals mit einem Quantencomputer angefangen, wäre das programmieren sicher anders.

Das hat doch aber nichts mit Zufall zu tun (ausser die Funktionsweise des Quantencomputers).

Noch mehr "selbst definiert" ist die Programmiersprache. Das ist aber insofern ok, da man irgend eine Verständigung der Stromstösse und dem Programmierer benötigt. Das ist aber in der Mathematik das einzig selbst definierte.

Was ist in der Mathematik das einzig selbst definierte? Die Mathematik startet ähnlich der Philosophie aus dem Nichts heraus. Du musst erstmal einige fundamentale Dinge vorraussetzen (definieren)!

Ich behaupte, dass jemand, der keine Ahnung von Mathematik hat (ausser vielleicht den Grundrechenarten) ein gutes Programm schreiben kann.

Das Programm möchte ich mal sehen. Jemand, der keine Ahnung von "konreter/angewandter" Mathematik hat (z.B. jemand, der nicht weiss, was eine Zahl ist), wird sich vermutlich sehr schwer tun.

Shift to the left, shift to the right!
Pop up, push down, byte, byte, byte!

YARRRRRR!

Du tust ja gerade so, als ginge es in der Mathematik um unumstößliche Gesetze. Das stimmt doch aber gar nicht. In der Mathematik legen wir diese Gesetze fest.

Das dachte ich bis jetzt so. Könntest du mir ein Beispiel oder Suchbegriffe geben?
Wenn das stimmt nehme ich alles zurück.

Wird in der vedischen Mathematik 1000*996+2² gerechnet? Das finde ich einfacher und kann es auch ohne vedisches Grundwissen.

Für mich gilt: selbst definiert = willkürlich festgelegt = zufällig

Bei dieser Definition der Programmlogik richten wir uns aber nach vielen Faktoren: * Was soll das Programm später einmal können?

  • Welche Sprachkonstrukte verwende ich in dieser Situation?
  • Gibt es eventuell schon fertige Komponenten, die diese Aufgabe übernehmen?
  • ...

Hierzu auch ein Zitat aus dem Wikipediaartikel "Zufall":

Beim Zufall handelt es sich um den Übergang aus einer Ausgangssituation, die mehrere Endsituationen ermöglicht, in genau eine dieser Endsituationen, wobei zum einen keine erkennbare Ursache für das Zustandekommen dieser einen Endsituation vorliegt und zum anderen bei wiederholtem Vorliegen derselben Ausgangssituation auch die anderen Endsituationen eintreten können.

Das würde ja heißen, dass Programmcode ohne jegliches Wissen bzw. ohne jegliche Erfahrung erstellt wird.
Entwurfsmuster sind ein gutes Gegenbeispiel: Hier ist die "Ursache für das Zustandekommen" meist gut nachvollziehbar.
Beispiele findet man auch hier im Forum: Die Vorgehensweisen in [FAQ] Kommunikation von 2 Forms , [FAQ] Controls von Thread aktualisieren lassen (Control.Invoke) usw. sind alles andere als zufällig entstanden.

Der Zufall spielt in der Softwareentwicklung IMHO eine sehr geringe Rolle (Höchstens vielleicht bei Fehlern, die ein Programmierer "zufällig" übersieht und zu einem anderen Zeitpunkt "zufällig" entdeckt).

Sobald man also mit einem Code ein bestimmtes Ziel erreichen will, ist dieser nicht mehr zufällig.
Ein zufälliger Code kann seine Aufgabe nicht erfüllen, da nur vom Zufall abhängig ist, was er eigentlich macht.

Zusammenfassend also: Gute Entwickler würfeln nicht, um den richtigen Code zu finden, sondern schreiben ihn aufgrund langjähriger Erfahrung.

Die Welt besteht aber leider nur aus Zufall.

Hierzu auch ein Zitat aus Wikibooks Zufall: Physik

Die akzeptierte Interpretation der Quantentheorie sagt, dass identische Experimente unterschiedliche Ergebnisse haben können.

Ich finde zwar gerade keinen guten Artikel darüber, aber die Welt ist nun einmal zufällig und unvorhersehbar. Die erste Erkenntnis war die Unschärferelation.

Beispiele findet man auch hier im Forum: Die Vorgehensweisen in
>
,
>
usw. sind alles andere als zufällig entstanden.

Diese Vorhergehensweisen haben sicher einen Grund, aber vielleicht gibt es noch bessere Vorgehensweisen als diese. Man hat sie bisher nur noch nicht gefunden.

Gute Entwickler würfeln nicht, um den richtigen Code zu finden, sondern schreiben ihn aufgrund langjähriger Erfahrung.

Nicht, dass ich dir das nicht zutraue, aber wenn, wie oben gesagt, die Vorgehensweisen nicht eindeutig die besten sind, könntest du deinen Code auch anders schreiben.
Man kann sicher sagen, dass du eine Tendenz hast, wie du den Code schreibst, aber ich glaube, wenn du das Gleiche (z.Bsp. ein mittelgrosses Projekt (nicht zu einfach)) etwa 100 mal schreibst und immer wieder das Geschriebene vergisst, kommen unterschiedliche Resultate heraus.

Hallo,

Du tust ja gerade so, als ginge es in der Mathematik um unumstößliche Gesetze. Das stimmt doch aber gar nicht. In der Mathematik legen wir diese Gesetze fest.
Das dachte ich bis jetzt so. Könntest du mir ein Beispiel oder Suchbegriffe geben?
Wenn das stimmt nehme ich alles zurück.

in der Schule wird Mathe gerne so unterrichtet, als sei alles was man so bekommt Gott-gegeben, unumwerflich und man müsse es so hinnehmen und akzeptieren. Ähnlich wie dass der Apfel vom Baum fällt.
In der Schule wendet man diese Gott-gegebenen Regeln einfach an.

Allerdings ist Mathematik nichts anderes als Definitionssache, dort geht man hin, definiert sich ein paar Dinge und leitet daraus Sachen ab. Solche Definitionen sind rein willkürlich gewählt. Jeder kann sich alles definieren, ob es Sinn macht, ist eine andere Frage.

Manche Definitionen/Gesetze sind aus der Wirklichkeit hergeleitet, z.B. wenn ich in eine Schale erst zwei Äpfel lege und dann drei dazu, dann hab ich genauso viele Äpfel in der Schale als wenn ich erst drei reinlege und dann zwei dazu. Also macht es Sinn, sich irgendeine Verknüpfung zu definieren, die Kommutativ ist (also 2+3 = 3+2).
Aber Mathematik darf man nicht mit der Wirklichkeit verwechseln. Mathematik ist einfach nur ein abstraktes Gedankengebilde, den 'Wrapper' zwischen Wirklichkeit und Mathematik stellt der Mensch her. Ob es pausibel ist, ist eine andere Frage.

In der Mathematik kann man z.B. problemlos eine massive Goldkugel vom Radius 1 so zerlegen (ich glaub in 4 oder 5 Teile), so dass man diese Teile durch drehen und verschieben im Raum zu zwei neue massive Goldkugel von Radius 1 zusammensetzen kann. Diese kann man weiter zerlegen, also ist es in der Mathematik problemlos möglich, eine massive Goldkugel vom Radius 1 in 10 Milliarden massive Goldkugel mit jeweils Radius 1 zu zerlegen. Also kann man das Volumen einer massiven Goldkugel problemlos um das 10 Milliardenfache vergößern. In der Mathematik!
Dies ist bekannt als das Banach-Tarski-Paradoxon

Wie gesagt, in der Mathematik definiert man sich oft willkürlich irgendwelche Eigenschaften die gelten sollen (z.B. x*x = x für alle x) und schaut dann, was denn noch gelten muss (hier würde dann auch noch gelten: x+x=0 für alle x, also auch z.B. 1+1=0). Ob man diese irgendwie gebrauchen kann um reale Probleme damit zu beschreiben ist nicht wirklich wichtig.

Sicher, Mathematik ist in sich dann eine logische Folgerung (aus x*x=x folgt x+x=0), die anfänglichen Definitionen sind aber oft willkürlich gewählt bzw. motiviert von der Realität aus gewählt.

Ein Buch das das etwas beleuchtet ist evt. 'In Mathematik war ich immer schlecht'. Ansonsten evt. bei Wikipedia etwas lesen, z.B. die Peano-Axiome oder Körper Axiome. Dies sind auch einfach Definitionen die man sich mal so ausgedacht hat und die sich dann als praktisch erwiesen. Dennoch wurden diese recht willkürlich gewählt und nicht alles kann man 'logisch erklären'. Warum ist z.B. 0! = 1? Oder 5^0 = 1?? Ganz einfach, weil man es so definiert hat.
Man hätte auch 0! = 0 definieren können, dann wären aber manche Folgerungen eben andere.

Um einmal im "Alltag" der Softwareentwicklung zu bleiben:

Diese Vorhergehensweisen haben sicher einen Grund

Und das ist genau das, worauf ich hinaus will:
Es existieren zwar (vielleicht sogar unendlich) viele verschiedene Möglichkeiten, z.B. das Problem mit der Kommunikation zwischen den Forms zu lösen.

Sobald aber ein Entwickler herausgefunden hat, welche der Methoden mit wenig Aufwand das beste Ergebnis erzielt, wird er nicht jedesmal eine zufällige Entscheidung treffen und wissentlich eine schlechtere Methode wählen.

könntest du deinen Code auch anders schreiben.

Ich tue dies aber nicht, weil ich genau weiß, dass es bessere Möglichkeiten gibt.
Auch wenn "besser" in diesem Fall sehr subjektiv ist, ist es für mich persönlich in diesem Fall klar definiert.

Man kann sicher sagen, dass du eine Tendenz hast, wie du den Code schreibst, aber [...] wenn du das Gleiche [...] etwa 100 mal schreibst [...], kommen unterschiedliche Resultate heraus.

Daran zweifle ich nicht.
Aber die besagte Tendenz ist immer zu erkennen.
Unter gewissen Randbedingungen, schätze ich, dass ich zum Beispiel immer eine objektorientierte Mehrschichtenarchitektur mit WPF unter Verwendung des MVVM-Patterns als Basis nehmen würde.
Unter "vollständigem Zufall" verstehe ich da etwas anderes.

Was ich damit sagen will: "Zufall" spielt zwar in der Softwareentwicklung eine Rolle, aber weit nicht so eine große wie Erfahrung sowie Anpassung und Veränderung derselbigen. Denn diese prägen den Code eines Entwicklers - bewusst oder unbewusst.

Um den Bogen zu schließen:
Auch wenn die Randbedingungen eines Sytems "durch Zufall" entstanden sind, muss das nicht automatisch heißen, dass innerhalb dieses Systems auch alles zufällig abläuft.
Solange sich die Randbedingungen nicht ständig ("zufällig") ändern, können innerhalb dieses Systems durchaus Gesetze gefunden werden, die allgemein gültig sind.

Der Zufall spielt in der Softwareentwicklung IMHO eine sehr geringe Rolle (Höchstens vielleicht bei Fehlern, die ein Programmierer "zufällig" übersieht und zu einem anderen Zeitpunkt "zufällig" entdeckt).

Ein zufälliger Code kann seine Aufgabe nicht erfüllen, da nur vom Zufall abhängig ist, was er eigentlich macht.

Der Meinung bin ich auch. Allerdings stellen Quantencomputer das ein wenig auf den Kopf. Hier wird kontrolliert "echter" Zufall ausgenutzt. Sogar das Ergebnis ist zufällig. Das spielt aber für manche Berechnungen keine Rolle oder man wiederholt sie so oft, bis man mit einer gewissen Wahrscheinlichkeit, die gut genug für den Programmierer ist, sagen kann, dass das Ergebnis "richtig" ist.

Genau das ist halt das tolle an den Quantencomputern. Ändert sich der Status eines Registers, ändern sich alle potentiell möglichen Status gleich mit. Der Wert, den man aus dem Quantenregister holt, ist zufällig.

Ich finde zwar gerade keinen guten Artikel darüber, aber die Welt ist nun einmal zufällig und unvorhersehbar. Die erste Erkenntnis war die Unschärferelation.

Man könnte auch argumentieren, dass man bisher kein Modell gefunden hat, dass die Quantenwelt so beschreiben kann. Die Heisenbergsche Unschärferelation schliesst Determinismus nicht aus. In meinem Verständnis geht es da eher um "unprüfbares".

Shift to the left, shift to the right!
Pop up, push down, byte, byte, byte!

YARRRRRR!

Hm, ich für meinen Teil bin naja, doch relativ erfolgreicher Olympiadenmathematiker (bestes Ergebnis war da 2. Preis in der sächsischen Landesrunde). Außerdem bin ich gerade am Überlegen, ob ich zu meinem Informatikstudium noch ein Mathestudium dazunehme. Ob man mich deshalb als Genie bezeichnen kann muss jeder selbst wissen.

Aber zu der eigentlichen Frage:
Was macht man in der Mathematik? Man versucht innerhalb willkürlich definierter mathematischer Systeme irgendwelche Zusammenhänge zu finden und zu beweisen, wobei man natürlich auf bereits bewiesene Zusammenhänge dieser Systeme zurückgreift (oder eben den Definitionen dieser Zusammenhänge).

Was macht man denn in der Physik, mal so nebenbei gefragt? Man nimmt sich doch eigentlich reale Probleme, projiziert die auf abstrakte, eigentlich mathematische Systeme, wendet die Gesetzmäßigkeiten dieser Systeme an (sowohl die Gesetzmäßigkeiten, die man von den mathematischen Gebilden, die darin vorkommen, kennt, als auch bekannte geltende physikalische Gesetze) um die Sachen herauszukriegen, die man gerne wissen möchte und interpretiert dann diese abstrakten Lösungen für das eigentliche reale Ausgangsproblem.

Schulmathematik funktioniert ähnlich, interessanterweise ähnlich der Physik, nicht der eigentlichen Mathematik, nur dass man da die Projektionen am Anfang und am Ende nicht machen muss, weil die schon gemacht sind.

Um sowas machen zu können muss man aber in jedem Fall die mathematischen Gesetzmäßigkeiten kennen, nur mit den physikalischen Gesetzen wird man nicht sehr weit kommen.

Und was macht man jetzt in der Softwareentwicklung? Man nimmt sich wieder reale Probleme, projiziert die auf abstrakte Sachen wie Objekte, wendet die Gesetzmäßigkeiten der zum Einsatz kommenden Technologie und die sich aus dem Problem ergebendes Gesetzmäßigkeiten an, um die Sachen herauszukriegen, die man gerne wissen möchte und interpretiert dann wieder die abstrakte Lösung des Ausgangsproblems.
Und weil die Kunden mit schnöden Konsolenprogrammen heutzutage nicht mehr zufrieden sind man macht noch eine hüsche GUI oder ein Webinterface, ärgert sich noch rum, dass das Teil nicht in allen Browsern gleich aussieht, schreibt noch eine Doku und eine Hilfe, optimiert hier und da noch ein bisschen, macht da vielleicht noch was um das Teil dann zu lokalisieren. Wenn das richtig für die Produktion eingesetzt wird, dann macht man vielleicht noch einen Korrektheitsbeweis (der im Optimalfall an sich auch wieder ein formaler im Prinzip eigentlich mathematischer Beweis ist) und gibt den Aufwand in Groß-O-Notation an.

Insofern sind sich hier Software-Entwicklung und Physik ziemlich ähnlich, Mathematik steht ein bisschen davon entfernt. Wenn jemand gut in der Schulmathematik ist, also beispielsweise ein "Mathegenie", dann hat er ein Gefühl dafür, wann er welche Gesetzmäßigkeiten anwenden kann. In aller Regel wird er auch gut abstrahieren können, aber das ist noch gar nicht mal gesagt. Mit abstrakten Systemen umgehen können und Dinge abstrahieren können sind auch zwei unterschiedliche Dinge. Wenn er das kann und auch ein Gefühl dafür hat, wann er welche physikalischen Gesetze anwenden muss, dann ist er schon ein guter Physiker.

Für die Softwareentwicklung ist aber mehr von Nöten. Diese Abstraktion am Anfang, die macht eigentlich der Softwarearchitekt (mit der Randbemerkung, dass wahrscheinlich viele Programmierer auch irgendwo die Softwarearchitektur so am Rande auch mt machen, in wie weit das zum Programmieren gehört lässt sich streiten). Wenn man aber ein Gespür dafür hat, welche Gesetzmäßigkeiten man in abstrakten Systemen anwenden kann, dann wird man das auch bei der Programmierung von Algorithmen nutzen können, weil dieses Gespür ist in beiden Fällen sehr ähnlich und baut in beiden Fällen sehr stark auf Logik auf. Die Programmierung von Algorithmen ist aber oft einfacher, aber es gilt auch wesentlich mehr Mittel zu überschauen (weil die Geschwindigkeit, in der welche dazu kommen ist einfach enorm). Auf jeden Fall muss man für diesen Teil der Softwareentwicklung mehr mehr als weniger strukturiert denken können. Und das ist wiederum das, was man bei der Hochschulmathematik eigentlich lernt.

Bei dem letzten Teil ist es wieder die Frage, ist das jetzt wieder Aufgabenbereich des Programmierers? Im Falle vom Rumärgern mit den verschiedenen Browsern auf alle Fälle, aber auch da ist jenes Gespür sehr von Vorteil, aber die Erstellung von GUIs macht zu Zeiten von WPF ein Designer und Doku, naja, verdammt, aber Doku schreiben kann jeder, man muss sich nur dazu zwingen.

Insgesamt bin ich also der Meinung, dass jemand, der in der Schule ein Mathegenie war, in aller Regel einen guten Programmierer abgibt. Die Umkehrung gilt allerdings nicht.

Man könnte auch argumentieren, dass man bisher kein Modell gefunden hat, dass die Quantenwelt so beschreiben kann. Die Heisenbergsche Unschärferelation schliesst Determinismus nicht aus. In meinem Verständnis geht es da eher um "unprüfbares".

Die Heisenberg'sche Unschärferelation tut das nicht, aber es gibt andere Sachen, die das tun, Determinismus ausschließen. Aber Experimente am Doppelspalt sagen eigentlich chon deutlich aus, dass die Welt nicht deterministisch sein kann, jedenfalls nicht in den Dimensionen, die wir wahrnehmen. Weil wenn du dir jetzt theoretisch eine Instanz denkst, die die Elektronen in diesem Doppelspaltexperiment steuert und davon ausgehst, dass diese Instanz auch wieder deterministisch ist, dann wäre kompletter Determinismus wieder möglich.

Ich persönlich gehe übrigens wirklich davon aus, dass es so eine Instanz gibt (die allerdings nicht deterministisch agiert), nenne sie Gott und bin deshalb christlich.

Aber für mich ist auch aufgrund des vorherigen Beitrags Programmieren genauso wenig zufällig wie Mathematik, oder sonst irgendeine Wissenschaft (wobei ich anmerken muss, dass ich Literaturwissenschaft nicht als Wissenschaft anerkenne), in allen diesen Fällen folgt das Vorgehen schon einer gewissen Logik. In allen diesen Fällen ist aber trotzdem so, die Bearbeitung des selben Problems mitunter unterschiedliche Lösungen herorbringen kann, also nach der Definition von See Sharp zufällig ist

Man kann sicher sagen, dass du eine Tendenz hast, wie du den Code schreibst, aber ich glaube, wenn du das Gleiche (z.Bsp. ein mittelgrosses Projekt (nicht zu einfach)) etwa 100 mal schreibst und immer wieder das Geschriebene vergisst, kommen unterschiedliche Resultate heraus.

Das glaube ich allerdings nicht... denn das Ziel bleibt das gleiche, sowie die mittel und gehen wir mal davon aus die technologie ebenso.
Das resultat wird immer das gleiche sein. Ein programm welches eine Lösung zu einem "zufällig" erkanntem problem behebt. Nur werden vllt die weg nicht die selbigen sein und sich in diversen dingen unterscheiden. welche aber definitiv nicht zufällig sind sondern wie schon gesagt wurde durch erfahrung "besser" gelöst wurden.

zB: Ein methode wurde anstatt mit 15 zeilen nur mit 10 zeilen geschrieben ohne verlust der übesichtlichkeit, natürlich. Dann ist das in den meisten fällen besser... denn programmieren sind in den meisten dingen schreibfaule menschen 😄

Diese Vorhergehensweisen haben sicher einen Grund, aber vielleicht gibt es noch bessere Vorgehensweisen als diese. Man hat sie bisher nur noch nicht gefunden.

Der Grund, wie er schon genannt wurde, ist eine Lösung zu einem Problem zu finden, welche mit wenig aufwand zu realisieren ist. und dazu vllt noch performant und platzsparend.

Es gibt für alles immer wieder eine bessere Lösung, aber das is nun mal Evolution, die ich behaupte jetzt mal das diese mit großer wahrscheinlichkeit nicht zufällig ist.

grüße

**Nur die Kenner können mit 10 Fingern bis 1023 zählen !!**
private int Main()
{
   string programmingSkills = getMySkills("programming")
   return = 1;
}

Die Heisenberg'sche Unschärferelation tut das nicht, aber es gibt andere Sachen, die das tun, Determinismus ausschließen. Aber Experimente am Doppelspalt sagen eigentlich chon deutlich aus, dass die Welt nicht deterministisch sein kann, jedenfalls nicht in den Dimensionen, die wir wahrnehmen. Weil wenn du dir jetzt theoretisch eine Instanz denkst, die die Elektronen in diesem Doppelspaltexperiment steuert und davon ausgehst, dass diese Instanz auch wieder deterministisch ist, dann wäre kompletter Determinismus wieder möglich.

yadda yadda yadda, quack quack quack, kein Wort verstanden, bin kein Physiker.

Ich persönlich gehe übrigens wirklich davon aus, dass es so eine Instanz gibt (die allerdings nicht deterministisch agiert), nenne sie Gott und bin deshalb spirituell.

Shift to the left, shift to the right!
Pop up, push down, byte, byte, byte!

YARRRRRR!

Einen Thread zum Glauben an Gott haben wir schon (Gott oder nicht Gott). Wenn ihr über Gott und Glauben diskutieren wollen, tut das bitte dort. Lasst das mal bitte aus diesem Thread hier raus.

Hallo Leute,

mir fällt häufig auf, dass Menschen probieren in Kategorien zu denken, die scharfen Grenzen haben.
Die Frage "Ist ein Informatiker auch ein Mathegenie?" probiert den Informatiker mit Eigenschaften abzugrenzen.
Doch so eine Abgrenzung gibt es nicht!

In meinem Maschinenbau Studium, wird uns beigebracht, dass bei einer Entscheidung immer ein Zielkonflikt herrscht. Eine doch recht einfache und nachvollziehbare Erkenntnis. Die aber weitreichende Auswirkungen im Denken haben kann(wenn man es zulässt).
Ich habe für mich zum Beispiel daraus gefolgert, dass man nie die perfekte Lösung haben kann.(Es gibt sie einfach nicht)

Und um den Kreis zum Thema zu schließen: Auch gibt es nicht den perfekten Informatiker, der dies und jenes kann. Es gibt unterschiedliche Menschen, die auch unterschiedliche Wege kennen/bestreiten um ans Ziel zu kommen.

Die Frage sollte deswegen nicht sein was kann ein Informatiker, sondern was kann ich und wo sind meine Stärken und wie kann ich diese gewinnbringend in ein Team von Softwareentwicklern einfließen lassen.

Die beste Eigenschaften in meinen Augen, sind eh Ehrgeiz und Neugier. Damit erreicht man mehr als mit jedem Talent.

Gruß Timo

p.S. Bin kein Mathe"genie", auch wenn ich in der Schule schon mal so tituliert wurde. Aber an der Uni relativiert sich so was sehr schnell. *g

Hallo Qwald.

Erst einmal vielen Dank, denn jetzt sehe ich alles etwas realistischer.
Dennoch kann ich mich nicht mit allen Argumenten abfinden.

Manche Definitionen/Gesetze sind aus der Wirklichkeit hergeleitet, z.B. wenn ich in eine Schale erst zwei Äpfel lege und dann drei dazu, dann hab ich genauso viele Äpfel in der Schale als wenn ich erst drei reinlege und dann zwei dazu. Also macht es Sinn, sich irgendeine Verknüpfung zu definieren, die Kommutativ ist (also 2+3 = 3+2).

Aber das Kommutativgesetz lässt sich beweisen: z.Bsp. Beweis Kommutativgesetz. Und etwas Beweisbares ist doch nicht willkürlich definiert.

[...]Dies ist bekannt als das
>

Ein Buch das das etwas beleuchtet ist evt. 'In Mathematik war ich immer schlecht'. Ansonsten evt. bei Wikipedia etwas lesen, z.B. die
>
oder
>
.
Dies sind auch einfach Definitionen die man sich mal so ausgedacht hat und die sich dann als praktisch erwiesen. Dennoch wurden diese recht willkürlich gewählt und nicht alles kann man 'logisch erklären'.

Ja, solche Sachen sind wirklich seltsam, aber der Grund ist nicht ein irgendwie definiertes Gesetz, sondern deutet darauf hin, was schon gesagt wurde:

Widerspruchsfreiheit und Vollständigkeit kann man eben bewiesenermaßen nicht gleichzeitig haben


Warum ist z.B. 0! = 1? Oder 5^0 = 1?? Ganz einfach, weil man es so definiert hat.

Ich kann dir einfach beweisen, dass 50=1 ist: 50=5^(2-2)=52/52=1. Ich weiss das sogar auswendig.
Das Problem ist bei beiden Fällen die 0, also 0! und 0^0. Aber diese Sachen sind nicht einfach definiert, sondern lassen sich auch beweisen (fakultät von 0 = 1? (ist das wirklich bewiesen worden?)).

Hallo onlinegurke

Was macht man in der Mathematik? Man versucht innerhalb willkürlich definierter mathematischer Systeme irgendwelche Zusammenhänge zu finden und zu beweisen, wobei man natürlich auf bereits bewiesene Zusammenhänge dieser Systeme zurückgreift (oder eben den Definitionen dieser Zusammenhänge).

Welche "willkürlich definierte mathematischer Systeme"? Ich kenne leider keine (was aber eher auf fehlendes Grundwissen zurückzuführen ist). Verschliesse ich die Augen von den Links von Qwald?

Die Heisenberg'sche Unschärferelation tut das nicht, aber es gibt andere Sachen, die das tun, Determinismus ausschließen.

Sogar schon die Unschärferelation schliesst den Determinismus aus.
Ich zitiere von hier:

Dieses Problem wird als die Heisenbergsche Unschärferelation bezeichnet, die folgendes besagt: [...]
Mit dieser Feststellung wurde der Laplacesche Traum endgültig widerlegt. Nichts ist vorhersehbar, da nicht einmal der augenblickliche Moment exakt bestimmt werden kann. 

Aber Experimente am Doppelspalt sagen eigentlich chon deutlich aus, dass die Welt nicht deterministisch sein kann, jedenfalls nicht in den Dimensionen, die wir wahrnehmen. Weil wenn du dir jetzt theoretisch eine Instanz denkst, die die Elektronen in diesem Doppelspaltexperiment steuert und davon ausgehst, dass diese Instanz auch wieder deterministisch ist, dann wäre kompletter Determinismus wieder möglich.

Aber ein Experiment kann doch nicht den Determinismus widerlegen. Ausserdem ist es doch für das Doppelspaltexperiment belanglos, wie viele Dimensionen überhaupt existieren, zumal man ja momentan von 11 Dimensionen ausgeht. (Oder hast du mit Dimensionen eine Sichtweise gemeint?).

Hallo Smou

Es gibt für alles immer wieder eine bessere Lösung, aber das is nun mal Evolution, die ich behaupte jetzt mal das diese mit großer wahrscheinlichkeit nicht zufällig ist.

Ich würde mal das Gegenteil behaupten. Jeder einzelne Schritt ist zufällig und wenn dieser sich bewährt, entwickelt er sich weiter. Im Grossen und Ganzen betrachtet entsteht etwas sicher aus einer Notwendigkeit, aber wie, wo und wann und überhaupt, das ist Zufall.

See Sharp

Ich hab keine Ahnung also sollte ich besser mal die "Fresse" halten.(*g)
Aber wo bleibt denn dann der Spaß.
Also wenn ich die Mathematiker(z.B. meine Freundin/meinen Bruder) so richtig verstehe, ist das einzigste was in der Mathematik ohne Beweis gewählt wird, die Axiome. Auf diesen fundiert die Mathematik dann. Und man hört dann so lustige Aussprüche wie. Mit den richtigen Axiomen beweise ich dir das eins plus eins drei ist.

Aber wie gesagt ich hab keine Ahnung und ich hätte lieber meine "Fresse" gehalten. 🤔
😉 😉 😉

Gruß Timo

Hallo,

die Diskussion scheint etwas zu entgleiten 🙂
Aber ich springe mal und kommentiere nochmal diese kleinen Nebenkriegsschauplätze.*Beweisbarkeit von Kommutativität und x^0=1
Die Addition der natürlichen Zahlen ist kommutativ. Diese Kommutativität lässt sich natürlich aus der Definition der Addition herleiten, sprich beweisen.
Trotzdem war es "willkürliche" Definitionssache, dass die Addition die Operation ist, die sie ist.
Dass diese Definition so wahrscheinlich am sinnvollsten ist, ist eine andere Sache. Und ob wir die Addition erst "definiert haben", oder ob die Mathematik schon vor dem Menschen da war ist noch eine andere Sache.
(Mein Prof meinte mal: "Wenn drei Dinosaurier auf der Wiese stehen und zwei dazukommen, dann sind doch fünf Dinosaurier auf der Wiese, egal ob man schon zählen konnte oder nicht.")

50=1 ist: 50=5^(2-2)=52/52=1

Hier wird eine Regel angewendet "5^(a-b)=5a/5b", die sich erst durch die Erweiterung der Potenz auf ganze Zahlen ergibt. Und eh man das machen kann, muss man 5^0=1 definieren. Dass diese Definition im Grunde die einzig sinnvolle ist, ist wieder eine andere Sache.

...

Das meiner Meinung nach faszinierende an der Mathematik ist, dass es eben so willkürlich festgelegt ist. Hier wird das definiert, hier was neues. Aber im Gesamtbild macht es Sinn. Es wird meistens so definiert, wie es am logischten ist, am elegantesten. Im Grunde am trivialsten.
Natürlich trifft man dann ab und zu auf bestimmte Paradoxien, die man nicht erwartet hätte, sich aber aufgrund der Definition so ergeben. Aber meistens hätte die Definition einfach nicht anders sein dürfen.
Und das scheint doch daraufhin zu deuten, dass Mathe nicht vom Menschen erschaffen wurde, sondern einfach existiert... Aber auch das ist eine andere Diskussion 👅

*Determinismus und Unschärferelation

Sogar schon die Unschärferelation schliesst den Determinismus aus.
Ich zitiere von hier:

Dieses Problem wird als die Heisenbergsche Unschärferelation bezeichnet, die folgendes besagt: [...]  
> Mit dieser Feststellung wurde der Laplacesche Traum endgültig widerlegt. Nichts ist vorhersehbar, da nicht einmal der augenblickliche Moment exakt bestimmt werden kann.

Nur weil etwas nicht vorhersagbar ist, kann es trotzdem deterministisch sein. Es kann alles vorherbestimmt sein, und trotzdem kann es niemand ermitteln, bzw. kann niemand kennen. (Schicksal)
Und was anderes sagen auch deine Zitate nicht.

*Was ist Zufall
In wieweit man nun als Mensch "Zufall" definiert ist wieder was anderes. Ob es bedeutet, dass etwas nicht deterministisch ist, oder ob es bereits Zufall ist, wenn man es nur nicht wissen kann, ist eben...... Definitionssache 😁

*Fundament der Mathematik

...Axiome. Auf diesen fundiert die Mathematik dann.

Gewissermaßen muss man noch die Logik (zweiwertige Aussagenlogik, bzw. Prädikatenlogik) mit zu diesem Fundament zählen. Denn irgendwie müssen ja auch diese "Axiome" beschreiben werden. Eben mit Mitteln dieser Logik.

Und jetzt kommen sogar die Logiker und meinen, dass eine solche zweiwertige Logik teilweise realitätsfremd ist. Und entwickeln parakonsistente Logiken um das Lügner-Paradoxon und ähnliche zu umgehen. Selbst bei dieser absoluten Basis gibt es schon Widersprüchlichkeiten. (Als Krönung dann noch Curry's Paradoxon 🤔 )

*Evolution
Und ob in der Evolution nun jeder Schritt Zufall ist, hängt wieder von der Begrifflichkeit des Zufalls ab.
Ob jeder Evolutions-Schritt deterministisch ist, oder nicht, ist eine Frage an Darwin, Gott und das Schicksal.

*Eigentliches Thema
Im Übrigen kenne ich sehr gute Mathematiker, die mit Programmieren irgendwie nix anfangen können und natürlich auch sehr gute Programmierer, die ausreichend mathematische Kenntnisse haben, aber bei weitem kein "Mathe-Genie" sind.

Außerdem sind Mathematiker eh mehr "Künstler", als Wissenschaftler 😉
(viele Unis haben Mathematik als Bachelor of Arts nicht Science)
Wobei dann Informatik auch eine art "Kunst" ist. Schließlich erschaffen wir ja.

beste Grüße
zommi

Um zu beweisen, dass eins plus eins drei ist, reicht es schon eine andere Definition der drei anzuwenden, da muss man noch gar nicht mal irgendwelche Axiome ändern. Aber es ist in der Tat so, bei den reellen Zahlen sagt man einfach so, dass es sie gibt. Beweisen kann man das nicht. Wenn du mich fragst, ich würde sogar sagen, dass sie wirklich nicht existieren. Wo bitte kommt in der Natur exakt Wurzel Zwei vor? Nirgends. Aber trotzdem kann man damit arbeiten und sowas wie Computer überhaupt zum Laufen bringen.

Axiome sind ja einfach nur Annahmen, also ich sage einfach ich definiere mir hier ein abstraktes Konstrukt, dass die Eigenschaften hat und arbeite damit. Ob es überhaupt etwas gibt, dass diese von mir geforderten Eigenschaften hat ist dabei erstmal egal.

Reelle Zahlen oder überhaupt Zahlen sind solche willkürlich definierten abstrakten Systeme.

Ich kann dir einfach beweisen, dass 50=1 ist: 50=5^(2-2)=52/52=1

Der Beweis hat aber mehr Lücken als Schweizer Käse. Wer sagt dir denn, dass 5^(2-2)=52/52 ist? Das sagt dir eine Rechenregel, die die Bedingung dass 5^0=1 ist schon ausnutzt. Die meisten Beweisen vereinfachen sich drastisch, wenn man einfach so von der Behauptung ausgeht, nur leider werden die im Allgemeinen nicht akzeptiert.

Hm, zommi war schneller, aber dann sagts wenigstens nicht nur einer 😃

Außerdem sind Mathematiker eh mehr "Künstler", als Wissenschaftler 😉

Wenn du mich fragst, dann sind Mathematiker genauso "Künstler" wie Softwarearchitekten, aber mehr als Programmierer und die wiederum mehr als Physiker. Die Anführungszeichen mach ich auch mal hin, weil mit "Künstlern" einfach Kreative gemeint sind, man sich bei dieser Definition von "Künstlern" über die Notwendigkeit der Anführungszeichen durchaus streiten kann.

Die Frage, ob Mathematik vom Menschen geschaffen wurde, ist interessant und auf alle Fälle auch diskusionswürdig. Ich wäre aber doch der Meinung, dass sie das doch ist.

Wenn sich jemand mal Themen der Informatik wie Sprachsemantik einer Programmiersprach auseinandersetzt würde ich eh dazu raten einen Mathematiker an Bord zu holen. Die sind bei solchen Themen sicher besser. Nicht ohne Grund ist JetBrains(ReSharp) von zwei Mathematikern gegründet worden.

Edit: Die Mathematiker sagen zumindestens mal das die Mathematik durch die "Natur" vorgegeben ist!

p.S.

Die Körperaxiome in Verbindung mit den Anordnungsaxiomen und dem Vollständigkeitsaxiom definieren die reellen Zahlen. (http://de.wikipedia.org/wiki/Axiom)){gray}

Ich habe meinen falschen Wissensstand nun wirklich erkannt und gebe in fast allen Punkten nach. Ausschlaggebend war zommis Beitrag, vor allem wegen der Übersicht, denn eigentlich war schon vieles gesagt worden. Aus diesem Grund verwende ich seinen Post als Gerüst.
*Beweisbarkeit von Kommutativität und x^0=1
Ich habe eingesehen, dass mein "Beweis" auf weiteren Definitionen beruht. Noch schlimmer, sie beruhen auf der Tatsache, dass dies so ist.
Ich bin irgendwie auf diesen "Beweis" hereingeflogen 🤔.

*Determinismus und Unschärferelation
Ich halte nicht vorhersagbar/messbar für ein Todesurteil des Determinismus, da bis jetzt nur eine Theorie mit einem Parameter existiert, aber sogar die Quantentheorie geht von unendlich (für jedes Elementarteilchen) vielen Parameter aus. Da die Theorien nur mit exakt ermittelten Werten der Parameter etwas etwas deterministisch vorhersagen können schliesst sich das für mich aus.

Hier würde ich sagen: Ansichtssache

*Was ist Zufall
Genau: Definitionssache

*Fundament der Mathematik

...Axiome. Auf diesen fundiert die Mathematik dann.
Gewissermaßen muss man noch die Logik[...] mit zu diesem Fundament zählen.

Von der Logik bin ich ausgegangen. Axiome in der Mathematik sind mir neu.
Das war eine Wissenslücke.

*Evolution
Auch: Ansichtssache.

*Anmerkung zu Ansichts- und Definitionssache
Hier bin ich von meiner Meinung überzeugt.

Zu Fundament der Mathematik hatte ich heute einen Alptraum dazu. Den "schlafwissenschaftlichen" Teil erläutere ich nun kurz:


Erst kamen die Dinosaurier von zommi's Professor. Obwohl man diese zählen kann sind sie nur eine zufällige Anhäufung von Atomen, welche aus weiteren Teilen bestehen. In der untersten Hirarchie sind komische Teilchen, welche wegen der Unschärferelation verschmiert sind. Also kann man sie auch nicht wirklich zählen, sondern nur mit einer grossen Wahrscheinlichkeit sagen, wie viele es sind.

Folglich existiert der absolute Begriff einer Zahl nicht. Jede Zahl ist etwas "verschmiert".

Darum kann man eine Zahl nur mit plus-minus Epsilon angeben. Dann erklärt sich auch x:0 mit x : (+-epsilon) = +-unendlich.

Nach kurzer Zeit konnte eine Zahl nur noch mit der Gausschen Glockenfunktion lokalisiert werden. Dann eine eigene, vom Zusammenhang abhängende Kurfe. Natürlich nur im Epslilon-Bereich.

Das hat zur Folge, dass kein Resultat exakt bestimmt werden kann und a=x:0 und 0*a=x möglich ist, wegen einer verbogenen Wahrscheinlichkeit der Position im Zahlenstrahl. Die Goldkugeln decken diese Wahrscheinlichkeit auf, ohne dass etwass widersprüchlich wäre. Auch hätten die Unvollständigkeitssätze keine Gültigkeit mehr.

Dieser Traum entstand ohne wissenschaftliche Recherchen und auf einem mageren Grundwissen der Schule (kürzlich ein Test über Prozentrechnen mit Aufgaben wie: 7% sind 42. Wie viel sind 100%?) und eine lückenhafte Mathematikbildung im Selbststudium, also ohne Gewähr.

Das Problem ist jedoch klar erkennbar: Jeder "Mist" ist möglich.

Ein verwirrter
See Sharp

Hallo zusammen,

vorneweg: ich habe die bisherigen Beiträge nur überflogen.

Mich hat es immer sehr verwundert, dass Leute, die schlecht in Mathe waren, überhaupt Lust zum Programmieren haben. Mich hat im Studium auch gewundert, wieviele Kommilitonen über Mathe(-Vorlesungen) gestöhnt haben und versucht haben, darum einen Bogen zu machen. Der Grund aus dem mich das wundert ist, dass ich mathematisches Problemlösen und Programmieren als sehr ähnlich und strukturell gleiche Vorgehensweisen ansehe.

Wenn ich ein reales Problem mathematisch lösen will, dann muss ich es zuerst in die Sprache eines mathematischen Modells übersetzen (oder sogar ein solches Modell erstmal bauen), dann muss ich die Regeln des mathematischen Modells auf das Problem anwenden. um die mathematische Lösung zu berechnen, die ich dann in die Sprache der realen Welt zurückübersetze, um die eigentliche Lösung des realen Problems zu erhalten. Als Bild also etwa so:


reales Problem  - - - - - - - - - - -> reale Lösung
  |                                      ^
  |                                      |
formalisieren                          interpretieren
  |                                      |
  v                                      |
mathematisches Problem --> rechnen --> mathematische Lösung

Statt ein Problem in einem Schritt zu lösen, tue ich es in drei Schritten, wobei der eigentliche kreative Akt der erste Schritt des Formalisierens (oder auch Modellierens) ist. Das eigentliche Rechnen ist meistens ein langweiliger, mechanischer Vorgang und das Interpretieren des Ergebnisses im mathematische Modell in die Realität ist meistens trivial.

Weil das Rechnen langweilig ist (und in Mathe geht es ja eigentlich auch nicht wirklich ums Rechnen, auch wenn Mathe in der Grundschule damit anfängt), nimmt man dafür einen Rechner (Computer). Bleiben tut der spannende Prozess des Formalisierens. Das ist aber genau, was man tut, wenn man ein reales Problem in ein Programm umsetzt. Das Rechnen selber überlässt man dann dem Rechner und das interpretieren der Ergebnisse bleibt trivial. Als Bild würde das so aussehen:


reales Problem  - - - - - - - - - - -> reale Lösung
  |                                      ^
  |                                      |
programmieren                          interpretieren
  |                                      |
  v                                      |
Programm -------> berechnen lassen --> Ausgabe

Ob das "berechnen lassen" jetzt im engeren Sinne das Berechnen einer mathematischen Funktion oder das Ausführen eines interaktiven Benutzerdialogs oder die Steuerung einer Fabrikanlage ist, macht auf der Ebene, auf der wir hier die Ähnlichkeiten zwischen Mathematik und Programmieren besprechen, keinen Unterscheid.

Der Prozess des Formalisierens und des Programmierens (besser der Software-Erstellung) ist aber sehr ähnlich, zumindest wenn man ihn versucht ingenieurmäßig durchzuführen.

Und vielleicht ist das auch die Antwort, warum es (viele) Leute gibt, die zwar gerne Programmieren, aber nicht gerne Mathe machen. Man kann Programme natürlich auch zusammenbasteln. Einfach irgendwie anfangen und solange rumändern, bis es läuft. Das wäre dann in der Tat etwas sehr anderes als Mathematik. Das hat dann aber m.E. auch nicht viel mit dem zu tun, was ich mir unter Programmieren (oder besser: Software-Entwicklung) vorstelle.

herbivore

Naja, ich würde wie schon angemerkt OOA und OOP auch in dieser Darstellung trennen, also

reales Problem  - - - - - - - - - - - - - - - - - - - - - - - - -> reale Lösung
  |                                                                 ^
  |                                                                 |
modellieren                                                   interpretieren
  |                                                                 |
  v                                                                 |
Objektmodell -- weitere Berechnungen --> Programm -- Ausführen ---> Ausgabe

Weil Objekte zu modellieren und mit ihnen irgendwas zu machen ist m.E. ein himmelweiter Unterschied. Mit dem richtigen Objektmodell sind die weiteren Berechnungen imho oft auch trivial.

Aber die meisten Programme lassen sich eben auch mit einem miesen Objektmodell und entsprechend viel Bastelarbeit realisieren. Ich will nicht sagen, dass das gut ist, oder das die Lösungen dann so mächtig sein können, wie die, die auf sauberen Objektmodellen basieren, aber oft genug geht das. An manchen Stellen ist sogar Bastelarbeit notwendig, weil man mit Komponenten arbeiten muss, die an vielen Stellen verbuggt sind (beispielsweise dem VS Designer 😦). Da bleibt noch ausreichend Raum für Leute, die Mathematik nicht mögen. Außerdem gibt es ja immer noch die, die einfach eine Mathephobie haben (von zB irgendwelchen unfähigen Gymnasiallehrern), es aber eigentlich können.

//edit: bisschen formatiert...

Also ich bastel mir auch gerne Formeln zusammen, um Probleme zu lösen (Programmiertechnisch). Ein Mathe-Genie bin ich nicht, aber ich weiss wie ich Mathematik für mich sinnvoll nutzen kann und tue dies auch gerne.

Seitdem ich meine erste richtige Programmiersprache C gelernt hab weiß ich, dass Programmierung und Rechner allgemein auf angewandter Mathematik basieren, welshalb jeder Informatiker schon grade zu zwangsweise Wissen im Bereich Mathematik hat, ob man sich dessen bewusst ist oder nicht.

Wie weit man sein Wissen und dessen Anwendung vertieft ist jedem selber überlassen (jedefalls nach der Schulzeit) und das finde ich auch gut so 😛

Sehr schöne Erklärung herbivore^^
Hätte es nicht besser ausdrücken können, denn es ist im übertragenen Sinne das was ich meine.

wer nicht sucht, der findet auch nicht...

Also ich hab ja hier schon mehrere Threads gelesen in denen es teils auch nur am Rande um Mathe ging. Deswegen geb ich jetzt mal meinen Senf als studierter Mathematiker mit Herz und "Seele" dazu 😄

Erstens müssen wir erstmal klären, was denn einen guten Mathematiker ausmacht. Also arithmetische Künste gehören für mich weniger in Bereich der "echten" Mathematik, wobei angemerkt ist, dass ich mich während des Studiums auf abstrakte Mathematik/Zahlentheorie/abstrakte Algebra spezialisiert hatte (und weil man damit nunmal nichts "Vernünftiges", d.h. geldbringendes, machen kann, bin ich nun grad in der Ausbildung zum FIAE, wo mir meine Mathekenntnisse sehr helfen). Mathematik ist zwar auch Rechnen, aber dafür hat man ja heutzutage Computer, die können das eh viel schneller als wir Menschen (wenn auch nicht "besser" ^^), es geht dabei viel mehr um Abstraktheit und Muster(-erkennung) und genau das ist ja gerade wichtig beim Programmieren, insbesondere bei der OOP (weswegen ich die viel leichter finde, als rein prozedurale Sachen, wobei auch andere Paradigma sehr interessant sind, wie bspw. bei PROLOG das deklarative).

Zu einigen hier aufgeworfenen Thesen:

Die Kommutativität der Addition der natürlichen Zahlen zu beweisen ist deutlich aufwendiger als man denkt, da die Addition an sich nicht zwingend kommutativ, ebenso die Multiplikation. Man kann es bspw. durch die Peano-Axiome machen, indem man induktiv zeigt, dass n+m=m+n für alle n,m in N, was aber weit aufwändiger ist, als man glauben mag ^^

Determinismus/Unschärfe:
Weil man etwas nicht beschreiben oder berechnen kann, heißt es nicht, dass es das nicht gibt (bspw. ist es bisher unmöglich Grahams Zahl auch nur irgendwie vernünftig abzuschätzen, dennoch gibt es sie und auch ihre Nachfolger).

Zufall: Zufall ist was in gewissen Grenzen (Varianz/Standardabweichung/Verteilung) einem gewissen Erwartungswert entspricht ^^

Fundament der Mathematik: Natürlich Axiome (willkürlich gewählt) und Prädikatenlogik höherer Stufe (der Gödelsche Vollständigkeitssatz zeigt ja gerade, dass FOPL und Aussagenlogik vollständig und widerspruchsfrei sind, der Unvollständigkeitssatz hingegen, dass die Mathematik aus formalen Systemen besteht, die unvollständig sind, was erst bei Prädikatenlogiken höherer Stufe erreicht wird).

Banach-Tarski-Paradoxon: Zum einen gilt das nur mit Zermelo-Fraenkel mit Auswahlaxiom, zum andern auch nur in als Punktmengen beschreibbaren Räumen, was schonmal zwei wichtige Forderungen sind.

Und nur nebenbei: Irgendwo am Anfang hieß es, der Gödelsche Unvollständigkeitssatz beweise, dass die Mathematik widerspruchsfrei ist... Das aber auch nur, weil man sich dafür entschieden hat, denn er sagt aus, dass ein hinreichend mächtiges formales System entweder widersprüchlich oder unvollständig ist. Man hat sich nun für "unvollständig" entschieden, weil man damit besser leben kann, als mit "widersprüchlich", was ebenfalls drin gewesen wäre 😄

Xand0r

Diskordianer schwimmen nicht gegen den Strom - sie klettern aus dem Fluss! Ein Mathematiker ist ein Mensch, der einen ihm vorgetragenen Gedanken nicht nur sofort versteht, sondern auch weiß auf welchem Denkfehler er beruht

@herbivore: Schöner Beitrag, aber glücklicherweise ist die Mathematik ein wenig mehr, als eine Problemlösungsmöglichkeit. Sobald die durch Axiome geschaffene Strukturen mittels Beweise untersucht werden passiert es oft, dass sich die Mathematik jenseits der problemlöserischen Denke bewegt. Klar löst die Mathematik viele Probleme, aber eben nicht zwingend. Wird es abstrakter, knicken eben viele (auch viele Programmierer) ein. Lösung von Optimierungsproblemen mittels Infinitesimalrechnung zum Beispiel ist etwas Realitätsnahes, das ist einfache Mathematik. Die Aufstellung diverser Beweise in der Analysis oder linearen Algebra hingegen ist abstrakte Mathematik und häufig der Punkt, wo viele das Studium abbrechen, weil sie "den Sinn in Studiengang XY nicht mehr gesehen haben" und lieber "etwas tun wollten, was ihnen auch was nützt". 😃

@Xan0r: Wie schafft man ein Mathestudium, wenn man '85 geboren ist und noch eine Ausbildung als FIAE gemacht hat (Profil)?

Hallo zusammen,

ich finde um ein guter Softwareentwickler zu sein braucht man kein "Mathe-Genie" sein. Ich finde, dass Abstraktionsvermögen und Logik viel wichtiger dabei sind.

Nun kann man die Behauptung aufstellen, dass wenn man sehr gutes Abstraktionsverständnis und Logik besitzt, dass man auch Chancen hat ein "Mathe-Genie" zu werden, da kann man aber ebenfalls drum streiten.

Also ich würde das nicht in direktem Zusammenhang sehen. Mag sein, dass gute Mathematiker einen leichteren Einstieg in die Softwareentwicklungswelt haben (Streitfrage), aber das muss nicht zwangsläufig so sein.

Algorithmen entwickeln? -> Ich weiß nicht wie viele "bahnbrechende Algorithmen" ich entwickelt habe in meinem Informatikerleben, wahrscheinlich keinen einzigen 😉 Das mag in der Forschung eine wichtige Rolle spielen, aber nicht in der klassischen Softwareentwicklungswelt. Hier kommt es eher auf Wartbarkeit, Skalierbarkeit, Kompatibilität, Installierbarkeit, Benutzer- /Bedienfreundlichkeit etc. an. Und das sind Dinge die kann man lernen.

Um nicht zu weit vom Thema abzuschweifen, unterbreche ich hier mal meine Ausgüsse 😉

Mich hat es immer sehr verwundert, dass Leute, die schlecht in Mathe waren, überhaupt Lust zum Programmieren haben.

Hihi, ich war "schlecht" in Mathe, das lag aber hauptsächlich daran, dass ich die Schulmathematik immer auf Anhieb verstanden hatte, aber viel zu faul zum Üben war, weshalb ich in Klausuren die Aufgaben zu langsam und zu fehleranfällig löste, was immer zu schlechten Noten geführt hat. Aber irgendwie machte (und mache mir auch heute noch) nicht so viel aus Schulnoten.

Grüße
Norman-Timo

A: “Wie ist denn das Wetter bei euch?”
B: “Caps Lock.”
A: “Hä?”
B: “Na ja, Shift ohne Ende!”

ich kann norman_timo nur zustimmen. ich bin in meiner noch relativ kurzen karriere noch keinen selbstgeschriebenen komplizierten mathematischen algorithmus begegnet. bislang bin cih mit meiner realschul-mathematik immer zurechtgekommen. das einzige, wo ich wirklich bedarf sehe, ist wenn man in der spieleprogrammierung irgendwelche special-effects macht, die ncoh keine vorgefertigete funktion bewerkstelligen kann. für den programmieralltag allerdings ist das nciht notwendig.

als ich angefangen habe mcih mit neuronalen netzen zu beschäftigen, habe ich gedacht, das ich mit meinem mathe-wissen nun an die grenze stoßen werde aber nach kurzer zeit habe ich auch hier festgestellt das mein grundlagenwissen + ein bisschen autodidaktische ambition vollkommen ausreicht, da hier mehr empirik als als harte und greifbare fakten gefordert sind.

im großen und ganzen würde ich mich trauen, folgende hypothese aufzustellen:
"höhere mathematik ist für das programmieren nciht notwendig"

auch das argument mit der fähigkeit zum abstrahieren ist meiner ansicht nach kein "mathe"-spezifikum. entweder ein mensch kann es oder er kann es nciht. unabhängig davon ob er höhere mathematik beherrscht oder nciht.

@Marco.B: mit 6 eingeschult werden + 12 Jahre Schule + 8 Semester Uni (man muss halt auch hinne machen 😄) macht summa summarum 22 Jahre, mit Jahrgang '85 bin ich momentan 23 und hab im September letzten Jahres die Ausbildung angefangen ^^

Diskordianer schwimmen nicht gegen den Strom - sie klettern aus dem Fluss! Ein Mathematiker ist ein Mensch, der einen ihm vorgetragenen Gedanken nicht nur sofort versteht, sondern auch weiß auf welchem Denkfehler er beruht

auch das argument mit der fähigkeit zum abstrahieren (...) entweder ein mensch kann es oder er kann es nciht.

So ein Unsinn.
Die gottgegebene Elite der abstrakten Denker, oder wie?
Natürlich ist das eine Denke die trainierbar ist.

Ich bin der Meinung, dass man abstraktes Denken und Logikvermögen am Besten durch Mathematik lernt, wenn auch nicht ausschließlich. Viele Programmierer meinen halt auch, dass die Erkennung von Gemeinsamkeiten zweier Entitäten schon die Haute Couture des Abstraktionsvermögen ist und dass man logisch denken kann, wenn man weiß, wie man Bedingungen verknüpft.

@Xand0r: Hast du dein Studium abgebrochen? Wieso macht man eine Ausbildung nach einem Mathestudium?! Als Mathematiker kriegt man i.d.R. eine gut bezahlte Stelle, da ist der FIAN kaum mehr anhebend.