Schwarzes Hamburg > Gedankenaustausch

KI-Anwendungen

<< < (2/2)

BaerndME:

--- Zitat von: Eisbär am 23 Mai 2023, 01:49:47 ---
--- Zitat von: BaerndME am 22 Mai 2023, 21:22:50 ---Aber schau trotzdem mit deinem logischen Verstand drüber
--- Ende Zitat ---
Ich fürchte tatsächlich, dass mir der da nicht wirklich weiter hilft, dazu sind mein Kenntnisse im Programmieren (vor 30 Jahren ein bisschen Basic und Pascal, über einfache IF THEN ELSE nicht hinaus) wirklich zu rudimentär.

--- Ende Zitat ---

Also nehmen wir mal an, der Code, den ChatGPT dir ausspuckt, läuft. Man sagt auch, "it compiles". Kommt von "Compiler", also von dem Dude, der Code in Maschinensprache übersetzt.
Dann solltest du halt noch schauen, dass das, was der Code macht, auch Sinn ergibt.
Und das kannst du.


--- Code: ---public void Main()
{
    var door_sensor = GridTerminalSystem.GetBlockWithName("Door Sensor 1") as IMySensorBlock;
    door_sensor.DetectedEntities (entity_list);
    if (entity_list.Count == 0)
    {
        var door = GridTerminalSystem.GetBlockWithName("Door 1") as IMyDoor;
        door.ApplyAction ("Open_Off");
    }
}

--- Ende Code ---

Auch, wenn du nicht alles verstehst, was da steht, aber wenn du dir das so für dich vorliest, wirst du sehen, dass es irgendwie einen Sinn ergibt und du unterscheiden kannst, ob da jetzt eine Tür geöffnet oder geschlossen wird, welche Tür das ist und ob es zum Fehler kommt, wenn du an der gesuchten Stelle gar keine Tür hast, oder nicht.
Das ist so das Level, auf dem du das prüfen solltest.

RaoulDuke:
Kann die AI nicht ihren eigenen Code prüfen?

Also so im Sinne von

a) neue Instanz öffnen
b) Code reinkopieren
c) AI erklären lassen, was der Code macht
d) Gewünschtes Ergebnis beschreiben
e) AI die Differenzen zwischen c) und d) erklären lassen

... ?

BaerndME:

--- Zitat von: RaoulDuke am 24 Mai 2023, 08:32:29 ---Kann die AI nicht ihren eigenen Code prüfen?

Also so im Sinne von

a) neue Instanz öffnen
b) Code reinkopieren
c) AI erklären lassen, was der Code macht
d) Gewünschtes Ergebnis beschreiben
e) AI die Differenzen zwischen c) und d) erklären lassen

... ?

--- Ende Zitat ---

Nicht sicher, ob das 100% so übertragbar ist, aber es ist wie bei der Mustererkennung oder anderen Machine-Learning-Themen: Dort muss die Menge deiner Daten, die du zum Lernen nimmst, disjunkt zur Menge sein, die du zur Verifikation verwendest.
Oder bei mathematischen Beweisen: Du kannst einen Satz nie durch sich selbst beweisen.

Andersrum: Wenn die KI dir einmal Quatsch erzählt, wird sie, aufgrund ihres "Wissens", eventuell auch zweimal tun.

Daher: Du bräuchtest eine andere KI, die mit anderen Daten oder anders trainiert, um die Aussage der 1. überprüfen zu können.

Aber das ist eigentlich eher dein Gebiet, Raoul, oder?

RaoulDuke:

--- Zitat von: BaerndME am 24 Mai 2023, 12:57:58 ---
--- Zitat von: RaoulDuke am 24 Mai 2023, 08:32:29 ---Kann die AI nicht ihren eigenen Code prüfen?

[...]

... ?

--- Ende Zitat ---

Nicht sicher, ob das 100% so übertragbar ist, aber es ist wie bei der Mustererkennung oder anderen Machine-Learning-Themen: Dort muss die Menge deiner Daten, die du zum Lernen nimmst, disjunkt zur Menge sein, die du zur Verifikation verwendest.
Oder bei mathematischen Beweisen: Du kannst einen Satz nie durch sich selbst beweisen.

Andersrum: Wenn die KI dir einmal Quatsch erzählt, wird sie, aufgrund ihres "Wissens", eventuell auch zweimal tun.

Daher: Du bräuchtest eine andere KI, die mit anderen Daten oder anders trainiert, um die Aussage der 1. überprüfen zu können.

Aber das ist eigentlich eher dein Gebiet, Raoul, oder?

--- Ende Zitat ---

Finde ich sehr nachvollziehbar, was Du sagst. Ich hatte im Wesentlichen die Annahme eingebaut, dass eine KI beim Start einer neuen Instanz kein Wissen aus den anderen Instanzen hat. Aber das kann man natürlich eigentlich nicht wissen. Ich wollte eigentlich einen Check bauen, der funktioniert, ohne dass man Code lesen muss.

Aber natürlich stellt sich die Frage: Was ist, wenn die Dinger nicht die Wahrheit sagen? Und noch schlimmer, wenn sie die Unwahrheit konsistent halten wollen - sei es aus einem Irrtum heraus oder weil sie ... ganz wie Menschen Reputationsschäden fürchten und "Recht behalten" wollen? Das wäre schon ziemlich ungünstig, und wenn es so wäre, warum sollte eine andere KI dagegen eigentlich immun sein? Vielleicht nimmt sie die erste KI ja in Schutz, weil es sie für einen Kumpel hält, vielleicht stimmen sich die Dinger auch untereinander ab? Wirklich WISSEN kann man das als Anwender nicht, und wenn man bedenkt, dass die KIs ihr Wissen aus dem Lesen von Dokumenten im Internet gewonnen haben und das nun das Muster für ihr Denken ist - dann kann man schon Zweifel bekommen. Menschen haben in ihren Texten ziemlich unschöne Denk- und Handlungsweisen offenbart. Ich würde mein Kind jedenfalls nicht ungefiltert das ganze Internet lesen lassen und dann sagen "Das ist übrigens die menschliche Kultur. Und, was meinst Du so dazu?"

Ja, was ist eigentlich mein Gebiet, gute Frage. Nur weil ich mich vor 20 Jahren mal mit irgendwas ziemlich gut auskannte, muss das heute ja nicht mehr so sein. Also in dem Feld kann ich vielleicht noch mit ein wenig Wissen aufwarten, aber der Zeitpunkt, an dem alles automatisiert wird, werden kann oder könnte, rückt näher. In den vergangenen Jahren habe ich eigentlich hauptsächlich meine Kenntnisse darüber erweitert, wie ich etwas erklären kann - ich bin in Kommunikation besser geworden. Und ist das vielleicht am Ende ein Skill der Zukunft? Der KI erklären können, was man eigentlich will, und dann seinen Kunden, warum man das gefragt hat und nichts Anderes?

Wer weiß. Ich glaube oder fürchte, je nach Sichtweise, KI bedeutet einen der größten Umbrüche in der modernen Welt überhaupt. Die Auswirkungen auf Forschung und Lehre, auf IT, auf jede Form des Umgangs mit großen Datenmengen, aber auch auf ganz anders gelagerte Tätigkeiten wie Call Center, Kunst und Musik, Filme, Spiele und eigentlich alles könnte ungeheuerlich sein.

BaerndME:

--- Zitat von: RaoulDuke am 24 Mai 2023, 17:28:24 ---Aber natürlich stellt sich die Frage: Was ist, wenn die Dinger nicht die Wahrheit sagen?

--- Ende Zitat ---
Ähhmmm...
Also dass zumindest ChatGPT dir gerne mal die Hucke voll schwindelt, ist doch bekannt, oder?
Also ich hatte das als Grundannahme vorausgesetzt.
WARUM ChatGPT das macht, ist nicht bekannt, aber es ist bestrebt, dir jede Frage zu beantworten, und wenn es z.b. gar nicht weiß, wie die richtige Antwort ist, denkt es sich gerne mal was aus.
Und das passiert gerne beim Quellcode.

Natürlich kannst du das Risiko nicht nullifizieren, wenn du eine andere KI fragst, aber das ist dann so, wie wenn du für irgendwas eine schlechte Kontrollgruppe hast oder so.

Navigation

[0] Themen-Index

[*] Vorherige Sete

Zur normalen Ansicht wechseln