The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,799,698 views

2023-04-20 ・ TED


New videos

The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,799,698 views ・ 2023-04-20

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Eleni Tziafa Επιμέλεια: Chryssa Rapessi
00:03
We started OpenAI seven years ago
0
3875
2503
Ξεκινήσαμε με την OpenAI πριν από επτά χρόνια
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
γιατί νιώσαμε ότι κάτι πολύ ενδιαφέρον γινόταν με την τεχνητή νοημοσύνη
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
και θέλαμε να την οδηγήσουμε προς μια θετική κατεύθυνση.
00:15
It's honestly just really amazing to see
3
15220
2085
Ειλικρινά, είναι εκπληκτική η εξέλιξη του τομέα από τότε που ξεκίνησε.
00:17
how far this whole field has come since then.
4
17347
3086
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Ακούμε με χαρά ωραία πράγματα άτομα όπως ο Ρέιμοντ:
[Η μάθηση ήταν δύσκολη για μένα που είμαι δυσλεξικός.
00:24
who are using the technology we are building, and others,
6
24104
2836
Το όνειρό μου ήταν να μάθω κώδικα,
00:26
for so many wonderful things.
7
26982
2127
και το ChatGPT ήταν σαν φίλος με μεγάλη υπομονή.
00:29
We hear from people who are excited,
8
29150
2503
Μαθαίνω κώδικα, η δυσλεξία μου δεν είναι πια εμπόδιο!]
00:31
we hear from people who are concerned,
9
31653
1835
Ακούμε ανθρώπους ενθουσιασμένους, ή ανήσυχους, ή και τα δύο ταυτόχρονα.
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
00:36
And honestly, that's how we feel.
11
36533
2252
Ειλικρινά, κι εμείς το ίδιο νιώθουμε.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Νιώθουμε ότι εισερχόμαστε σε μια ιστορική εποχή αυτή τη στιγμή
00:44
where we as a world are going to define a technology
13
44374
4421
όπου ο κόσμος πρόκειται να καθορίσει μια τεχνολογία
00:48
that will be so important for our society going forward.
14
48795
3086
που θα είναι τόσο σημαντική για το μέλλον της κοινωνίας μας.
00:52
And I believe that we can manage this for good.
15
52924
2628
Πιστεύω ότι μπορούμε να το χειριστούμε για καλό.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Σήμερα, θέλω να σας δείξω την τρέχουσα κατάσταση της τεχνολογίας
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
και ορισμένες από τις αρχές σχεδιασμού της που θεωρούμε πολύτιμες.
01:09
So the first thing I'm going to show you
18
69983
1918
Το πρώτο πράγμα που θα σας δείξω
01:11
is what it's like to build a tool for an AI
19
71943
2086
είναι ο τρόπος κατασκευής ενός εργαλείου για μια ΤΝ
σε σχέση με την κατασκευή του για έναν άνθρωπο.
01:14
rather than building it for a human.
20
74029
1876
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
Έχουμε ένα νέο μοντέλο DALL-E που δημιουργεί εικόνες
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
και το δίνουμε ως εφαρμογή για να το χρησιμοποιεί για σας το ChatGPT.
01:25
And you can do things like ask, you know,
23
85248
2461
Μπορεί κανείς να ζητήσει,
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
να προτείνει ένα καλό γεύμα μετά την ομιλία και να το ζωγραφίσει.
01:35
(Laughter)
25
95216
1419
(Γέλια)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Τώρα καταλαβαίνετε περίπου την ιδέα και τις δημιουργικές αλλαγές
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
και την προσοχή στις λεπτομέρειες που σας δίνει το ChatGPT.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
Ορίστε, δεν είναι μόνο η ιδέα για το γεύμα,
01:49
but a very, very detailed spread.
29
109773
3587
αλλά για ένα μενού με πάρα πολλές λεπτομέρειες.
01:54
So let's see what we're going to get.
30
114110
2044
Ορίστε τι θα πάρουμε.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
Αλλά το ChatGPT δεν δημιουργεί μόνο κείμενο, αλλά και μια εικόνα.
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
02:02
And that is something that really expands the power
33
122827
2419
Αυτό είναι κάτι που διευρύνει τη δυνατότητά του
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
να κάνει πράγματα για σας εκπληρώνοντας την πρόθεσή σας.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Το τονίζω, είναι μια ζωντανή επίδειξη.
02:10
This is all generated by the AI as we speak.
36
130835
2169
Όλα αυτά δημιουργούνται από την ΤΝ ενώ μιλάμε.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Ούτε κι εγώ δεν ξέρω τι θα δούμε.
02:16
This looks wonderful.
38
136216
2294
Φαίνεται υπέροχο.
02:18
(Applause)
39
138510
3712
(Χειροκρότημα)
02:22
I'm getting hungry just looking at it.
40
142514
1877
Πεινάω και μόνο που το βλέπω.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Επεκτείναμε το ChatGPT και με άλλα εργαλεία,
02:27
for example, memory.
42
147519
1168
για παράδειγμα, με μνήμη.
02:28
You can say "save this for later."
43
148728
2795
Μπορείτε να πείτε «κράτα το για αργότερα».
02:33
And the interesting thing about these tools
44
153233
2043
Το ενδιαφέρον με αυτά τα εργαλεία είναι ότι μπορούν να ελεγχθούν.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Εμφανίζεται αυτό το κουμπί που γράφει «χρησιμοποιήστε την εφαρμογή DALL-E».
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Θα το έχουν όλοι οι χρήστες του ChatGPT μέσα στους επόμενους μήνες.
Μπορείτε να δείτε επίσης τι ακριβώς κάνει,
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
γράφει δηλαδή μια εντολή, όπως θα έκανε κι ένας άνθρωπος.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
Έτσι έχετε τη δυνατότητα επίβλεψης,
02:51
how the machine is using these tools,
51
171459
2086
πώς η μηχανή χρησιμοποιεί τα εργαλεία,
02:53
which allows us to provide feedback to them.
52
173586
2086
ώστε να τους δίνουμε ανατροφοδότηση.
02:55
Now it's saved for later,
53
175714
1209
Αποθηκεύτηκε για αργότερα,
02:56
and let me show you what it's like to use that information
54
176965
2878
για να σας δείξω πώς χρησιμοποιούμε αυτές τις πληροφορίες.
02:59
and to integrate with other applications too.
55
179884
2503
και να προσθέσω και άλλες εφαρμογές.
03:02
You can say,
56
182387
2210
Μπορείτε να πείτε
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
«Κάνε τώρα μια λίστα για ψώνια για εκείνο το νόστιμο πράγμα
03:10
I was suggesting earlier.”
58
190186
1835
που πρότεινα προηγουμένως».
03:12
And make it a little tricky for the AI.
59
192021
2128
Κάντε το λίγο πιο πολύπλοκο για την ΤΝ.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
«Στείλε το με τουίτ σε όλο το κοινό του TED».
03:20
(Laughter)
61
200655
2252
(Γέλια)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Αν λοιπόν φτιάξετε αυτό το υπέροχο γεύμα,
03:25
I definitely want to know how it tastes.
63
205410
2044
θέλω οπωσδήποτε να μάθω τι γεύση έχει.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Μπορείτε να δείτε ότι το ChatGPT επιλέγει όλα αυτά τα εργαλεία
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
χωρίς εγώ να του λέω ποιο να χρησιμοποιεί σε κάθε περίσταση.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Έτσι προκύπτει ένας νέος τρόπος σκέψης για τη διεπαφή χρήστη.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Έχουμε αυτές τις εφαρμογές,
03:44
we click between them, we copy/paste between them,
68
224763
2335
κάνουμε κλικ σε αυτές, αντιγραφή/επικόλληση μεταξύ τους,
03:47
and usually it's a great experience within an app
69
227098
2294
και συνήθως είναι ωραία μέσα σε μια εφαρμογή
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
εφόσον γνωρίζει κανείς τα μενού και όλες τις επιλογές.
03:52
Yes, I would like you to.
71
232395
1293
Ναι, θα ήθελα να το κάνεις.
03:53
Yes, please.
72
233730
1126
Ναι, παρακαλώ.
03:54
Always good to be polite.
73
234898
1251
Η ευγένεια πάνω απ′ όλα.
03:56
(Laughter)
74
236149
2628
(Γέλια)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Με αυτή την ενιαία γλωσσική διεπαφή και μαζί όλα τα εργαλεία,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
η ΤΝ μπορεί να σας απαλλάξει από τις λεπτομέρειες.
04:10
So you don't have to be the one
77
250538
1543
Δεν χρειάζεται να υπαγορεύουμε το παραμικρό
04:12
who spells out every single sort of little piece
78
252123
2294
04:14
of what's supposed to happen.
79
254459
1543
από αυτά που πρόκειται να συμβούν.
04:16
And as I said, this is a live demo,
80
256419
1710
Όπως είπα, είναι μια ζωντανή επίδειξη,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
και καμιά φορά μπορεί να συμβεί κάτι απρόβλεπτο.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Ας ρίξουμε μια ματιά στη λίστα για ψώνια, μια που είμαστε εδώ.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Στείλαμε μια λίστα με τα συστατικά στην εφαρμογή.
04:29
Here's everything you need.
84
269349
1543
Είναι όλα όσα θα χρειαστείτε.
04:30
And the thing that's really interesting
85
270892
1877
Είναι πολύ ενδιαφέρον
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
ότι η παραδοσιακή διεπαφή εξακολουθεί να είναι πολύ χρήσιμη.
04:35
If you look at this,
87
275772
1877
Αν το δείτε αυτό,
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
μπορείτε να κάνετε κλικ και να αλλάξετε τις ποσότητες.
04:41
And that's something that I think shows
89
281986
1877
Νομίζω ότι αυτό δείχνει
04:43
that they're not going away, traditional UIs.
90
283863
3253
ότι δεν χάνονται οι παραδοσιακές διεπαφές.
Απλώς έχουμε έναν νέο, επαυξημένο τρόπο να τις κατασκευάζουμε.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Έχουμε ένα τουίτ που γράφτηκε για να το διορθώσουμε,
04:52
which is also a very important thing.
93
292956
1793
που είναι κι αυτό πολύ σημαντικό.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
Μπορούμε να πατήσουμε «εκτέλεση» και να κάνουμε έλεγχο,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
μπορούμε να αλλάξουμε το έργο της ΤΝ, αν το θέλουμε.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Μετά από την ομιλία, θα έχετε κι εσείς πρόσβαση.
05:17
And there we go.
97
317647
1710
Ορίστε.
05:19
Cool.
98
319816
1126
Ωραίο.
05:22
Thank you, everyone.
99
322485
1168
Σας ευχαριστώ, όλους.
05:23
(Applause)
100
323653
3003
(Χειροκρότημα)
05:29
So we’ll cut back to the slides.
101
329367
1627
Θα αφήσουμε τις διαφάνειες.
05:32
Now, the important thing about how we build this,
102
332954
3587
Το σημαντικό για τον τρόπο κατασκευής,
05:36
it's not just about building these tools.
103
336583
2210
δεν είναι μόνο η κατασκευή των εργαλείων.
05:38
It's about teaching the AI how to use them.
104
338793
2252
Είναι να διδάξουμε την ΤΝ πώς να τα χρησιμοποιεί.
05:41
Like, what do we even want it to do
105
341087
1710
Τι ακριβώς θέλουμε να κάνει
05:42
when we ask these very high-level questions?
106
342839
2419
όταν ρωτάμε αυτές τις δύσκολες ερωτήσεις;
05:45
And to do this, we use an old idea.
107
345258
2669
Για να το κάνουμε αυτό, φαρμόζουμε μια παλιά ιδέα.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
Αν ανατρέξουμε στο άρθρο του Άλαν Τούρινγκ για το Τεστ Τούρινγκ, λέει:
05:51
you'll never program an answer to this.
109
351598
2043
Ποτέ δεν θα προγραμματίσεις μια απάντηση.
05:53
Instead, you can learn it.
110
353683
1627
Αντίθετα, θα τη διδάξεις.
05:55
You could build a machine, like a human child,
111
355351
2169
Θα φτιάξεις μια μηχανή σαν ένα ανθρώπινο παιδί,
05:57
and then teach it through feedback.
112
357520
2127
και μετά θα το διδάξεις μέσω ανατροφοδότησης.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Ένας άνθρωπος-δάσκαλος θα δίνει αμοιβές ή τιμωρίες
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
κάνοντας δοκιμές, είτε καλές είτε κακές.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
Έτσι ακριβώς εκπαιδεύουμε το ChatGPT.
06:08
It's a two-step process.
116
368239
1168
Είναι δύο τα στάδια.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
Πρώτα δημιουργούμε μια μηχανή-παιδί, όπως θα έλεγε ο Τούρινγκ
06:12
through an unsupervised learning process.
118
372535
1960
με μια διαδικασία μάθησης χωρίς επίβλεψη.
06:14
We just show it the whole world, the whole internet
119
374495
2461
Του δείχνουμε τα πάντα, όλο το διαδίκτυο, και λέμε:
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
«Πρόβλεψε τι ακολουθεί σε κείμενο που δεν έχεις ξαναδεί».
Αυτή η διαδικασία το εμπλουτίζει με εκπληκτικές δεξιότητες.
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
06:23
For example, if you're shown a math problem,
122
383212
2086
Αν λοιπόν έχεις ένα μαθηματικό πρόβλημα,
ο μόνος τρόπος να το ολοκληρώσεις,
06:25
the only way to actually complete that math problem,
123
385298
2544
06:27
to say what comes next,
124
387884
1334
να πεις τι ακολουθεί,
αυτό εκεί το πράσινο εννέα,
06:29
that green nine up there,
125
389218
1293
06:30
is to actually solve the math problem.
126
390511
2294
είναι να λύσεις το μαθηματικό πρόβλημα.
06:34
But we actually have to do a second step, too,
127
394432
2169
Αλλά πρέπει σ′ ένα δεύτερο στάδιο,
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
να μάθουμε την ΤΝ τι κάνει με αυτές τις δεξιότητες.
Γι′ αυτό παρέχουμε ανατροφοδότηση.
06:39
And for this, we provide feedback.
129
399187
1668
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
Η ΤΝ δοκιμάζει πολλά πράγματα, και κάνει πολλές προτάσεις,
ένας άνθρωπος κρίνει ότι κάτι είναι καλύτερο από ένα άλλο.
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
Αυτό ενισχύει όχι μόνο την πρόταση της ΤΝ,
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
αλλά και όλη τη διαδικασία που η ΤΝ χρησιμοποίησε για να δώσει την απάντηση.
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
Αυτό της επιτρέπει να γενικεύει.
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
Της επιτρέπει να μαθαίνει, να μαντεύει την πρόθεσή σου
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
και να την εφαρμόζει σε πρωτόγνωρα δεδομένα
07:00
that it hasn't received feedback.
137
420750
1585
για τα οποία δεν έλαβε ανατροφοδότηση.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Μερικές φορές πρέπει να μάθουμε στην ΤΝ απρόσμενα πράγματα.
07:05
are not what you'd expect.
139
425171
1543
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Όταν πρωτοδείξαμε το GPT-4 στην Ακαδημία Khan,
07:09
they said, "Wow, this is so great,
141
429884
1627
είπαν: «Αυτό είναι καταπλητικό,
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
θα μπορέσουμε να διδάξουμε εκπληκτικά πράγματα.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Το πρόβλημα είναι ότι δεν ελέγχει τς ασκήσεις των μαθητών.
07:17
If there's some bad math in there,
144
437809
1626
Αν τα μαθηματικά δεν είναι σωστά,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
με χαρά θα πει ότι ένα κι ένα κάνουν τρία και θα συνεχίσει με αυτό».
07:23
So we had to collect some feedback data.
146
443523
2294
Έπρεπε λοιπόν να συγκεντρώσουμε ανατροφοδότηση.
07:25
Sal Khan himself was very kind
147
445858
1544
Ο Σαλ Καν ήταν πολύ ευγενικός
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
και αφιέρωσε 20 ώρες για να δώσει ανατροφοδότηση στη μηχανή
07:30
alongside our team.
149
450780
1501
μαζί με την ομάδα μας.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
Μέσα σε μερικούς μήνες μπορέσαμε να διδάξουμε την ΤΝ:
07:35
"Hey, you really should push back on humans
151
455910
2044
«Θα πρέπει να προωθείς στους ανθρώπους αυτό το συγκεκριμένο σενάριο».
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Κάναμε πάρα πολλές βελτιώσεις στα μοντέλα με αυτόν τον τρόπο.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Όταν κάνετε κλικ στο χεράκι προς τα κάτω,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
αυτό στέλνει ένα σήμα στην ομάδα μας που λέει:
«Εδώ υπάρχει μια αδυναμία για την οποία χρειάζεστε ανατροφοδότηση».
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
07:55
And so when you do that,
157
475388
1168
Όταν το κάνετε αυτό, ακούμε τους χρήστες
07:56
that's one way that we really listen to our users
158
476597
2294
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
και βεβαιωνόμαστε ότι δημιουργούμε κάτι χρήσιμο για τον καθένα.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Είναι δύσκολο να βρεις υψηλού επιπέδου ανατροφοδότηση.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Αν ζητήσεις από ένα παιδί να καθαρίσει το δωμάτιό του,
08:09
if all you're doing is inspecting the floor,
162
489485
2711
αν το μόνο που κάνεις είναι να ελέγχεις το πάτωμα,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
δεν ξέρεις αν απλώς το διδάσκεις να κρύβει όλα τα παιχνίδια στη ντουλάπα.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Αυτή είναι μια ωραία εικόνα που δημιούργησε το DALL-E.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Η ίδια λογική εφαρμόζεται και στην ΤΝ.
08:24
As we move to harder tasks,
166
504667
1794
Καθώς προχωράμε σε πιο δύσκολα πράγματα,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
πρέπει να μπορούμε να παρέχουμε όλο και καλύτερη ανατροφοδότηση.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Σε αυτό, η ίδια η ΤΝ έρχεται να βοηθήσει.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Μας βοηθά να παρέχουμε ακόμη καλύτερη ανατροφοδότηση
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
και να επιβλέπουμε καλύτερα τη μηχανή όσο περνά ο καιρός.
08:40
And let me show you what I mean.
171
520767
1543
Να σας δείξω τι εννοώ.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Μπορείτε να ρωτήσετε το GPT-4 μια τέτοια ερώτηση,
08:47
of how much time passed between these two foundational blogs
173
527356
3295
πόσος καιρός πέρασε μεταξύ δύο σημαντικών σταδίων
08:50
on unsupervised learning
174
530693
1668
εκμάθησης χωρίς επίβλεψη
08:52
and learning from human feedback.
175
532403
1794
και μάθησης από ανθρώπινη ανατροφοδότηση.
08:54
And the model says two months passed.
176
534197
2460
Το μοντέλο λέει ότι πέρασαν δύο μήνες.
08:57
But is it true?
177
537075
1167
Είναι όμως αλήθεια;
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Αυτά τα μοντέλα δεν είναι 100% αξιόπιστα,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
ωστόσο γίνονται καλύτερα με κάθε ανατροφοδότηση.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Μπορούμε να χρησιμοποιήσουμε την ΤΝ για την επιβεβαίωση.
09:07
And it can actually check its own work.
181
547543
1877
Μπορεί να ελέγξει το ίδιο της το έργο.
09:09
You can say, fact-check this for me.
182
549462
1877
Μπορείς να πεις «έλεγξε αυτό».
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
Εδώ έδωσα στην ΤΝ ένα νέο εργαλείο.
09:16
This one is a browsing tool
184
556427
1710
Είναι ένα εργαλείο αναζήτησης
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
όπου το μοντέλο κάνει αναζητήσεις και κλικ σε ιστοσελίδες.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Παράλληλα, καταγράφει όλη την πορεία σκέψης καθώς το κάνει.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Λέει: «Θα ψάξω αυτό» και απλώς το ψάχνει.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Βρίσκει την ημερομηνία δημοσίευσης και τα αποτελέσματα της αναζήτησης.
Μετά ξεκινά μια νέα αναζήτηση.
09:32
It then is issuing another search query.
189
572026
1919
09:33
It's going to click into the blog post.
190
573945
1877
Κάνει κλικ στην ανάρτηση του μπλογκ.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Μπορείτε να το κάνετε κι εσείς, αλλά είναι πολύ κουραστικό.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Δεν θέλουν οι άνθρωποι να το κάνουν.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Είναι πολύ πιο διασκεδαστικό να ηγείσαι,
να είσαι μάνατζερ, όπου μπορείς να τριπλοτσεκάρεις τη δουλειά.
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
09:45
triple-check the work.
195
585998
1210
Εμφανίζονται τα αποτελέσματα
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
και μπορείς πολύ εύκολα να ελέγξεις κάθε στοιχείο της διαδικασίας.
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
09:53
And it actually turns out two months was wrong.
199
593673
2210
Τελικά οι δύο μήνες ήταν λάθος.
09:55
Two months and one week,
200
595883
2169
Δύο μήνες και μία εβδομάδα,
09:58
that was correct.
201
598094
1251
αυτό ήταν το σωστό.
10:00
(Applause)
202
600888
3837
(Χειροκρότημα)
10:07
And we'll cut back to the side.
203
607645
1502
Ας συνεχίσουμε.
Νομίζω ότι το πιο ενδιαφέρον για μένα σε όλη αυτή τη διαδικασία
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
είναι η συνεργασία σε πολλά στάδια μεταξύ ανθρώπου και ΤΝ.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Γιατί ένας άνθρωπος, με αυτό το εργαλείο ελέγχου
10:19
is doing it in order to produce data
207
619532
2210
το κάνει για να παράγει δεδομένα
10:21
for another AI to become more useful to a human.
208
621742
3170
ώστε μια άλλη ΤΝ να γίνει πιο χρήσιμη για τον άνθρωπο.
10:25
And I think this really shows the shape of something
209
625454
2545
Νομίζω ότι αυτό δείχνει ένα μοτίβο
10:28
that we should expect to be much more common in the future,
210
628040
3087
που αναμένουμε να γίνει σύνηθες στο μέλλον
10:31
where we have humans and machines kind of very carefully
211
631127
2711
όταν θα έχουμε ανθρώπους και μηχανές που θα έχουν σχεδιάσει με πολλή προσοχή
10:33
and delicately designed in how they fit into a problem
212
633880
3503
τη συνεργασία τους για την αντιμετώπιση και τη λύση ενός προβλήματος.
10:37
and how we want to solve that problem.
213
637425
1918
Επιβεβαιώνουμε ότι οι άνθρωποι θα έχουν τη διαχείριση, την επίβλεψη,
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
την ανατροφοδότηση
10:42
the feedback,
215
642847
1168
και οι μηχανές θα δουλεύουν με τρόπο ελέγξιμο και αξιόπιστο.
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
10:46
and trustworthy.
217
646809
1126
Μαζί θα μπορέσουμε να δημιουργήσουμε ακόμη πιο αξιόπιστες μηχανές.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Με τον καιρό, αν το κάνουμε σωστά,
10:51
And I think that over time, if we get this process right,
219
651522
2711
θα μπορέσουμε να λύσουμε ανεπίλυτα προβλήματα.
10:54
we will be able to solve impossible problems.
220
654233
2127
Για να καταλάβετε πόσο ανεπίλυτα,
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
νομίζω ότι θα μπορούμε να ξανασκεφτούμε
11:03
of how we interact with computers.
223
663242
2378
κάθε μορφή διάδρασής μας με τους υπολογιστές.
11:05
For example, think about spreadsheets.
224
665620
2502
Για παράδειγμα, τα φύλλα εργασίας.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Υπάρχουν εδώ και περίπου 40 χρόνια με παρόμοια μορφή.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Δεν άλλαξαν και πολύ με τον καιρό.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Βλέπουμε ένα φύλλο εργασίας με όλα τα άρθρα για την ΤΝ
11:22
for the past 30 years.
228
682178
1168
των τελευταίων 30 ετών.
11:23
There's about 167,000 of them.
229
683346
1960
Υπάρχουν περίπου 167 χιλιάδες.
11:25
And you can see there the data right here.
230
685348
2878
Μπορείτε να δείτε εδώ τα δεδομένα.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Θα σας δείξω όμως πώς το ChatGPT αναλύει αυτά τα δεδομένα.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
Μπορούμε να δώσουμε στο ChatGPT πρόσβαση σε ένα άλλο εργαλείο,
11:41
this one a Python interpreter,
233
701197
1460
είναι ένας μεταφραστής Python
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
που μπορεί να τρέχει κώδικα όπως ένας ειδικός σε δεδομένα.
11:46
And so you can just literally upload a file
235
706661
2335
Μπορείτε απλώς να ανεβάσετε ένα αρχείο και να κάνετε ερωτήσεις γι′ αυτό.
11:48
and ask questions about it.
236
708996
1335
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Η ΤΝ αναγνωρίζει αμέσως το αρχείο και κάνει το εξής:
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
«Είναι CSV, με δεδομένα που χωρίζονται με κόμμα.
11:56
"I'll parse it for you."
239
716420
1335
Θα τα αναλύσω εγώ για σένα».
11:57
The only information here is the name of the file,
240
717755
2794
Η μόνη πληροφορία εδώ είναι το όνομα του αρχείου,
12:00
the column names like you saw and then the actual data.
241
720591
3671
τα ονόματα στις στήλες που είδατε και τα ίδια τα δεδομένα.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Με αυτά μπορεί να συνάγει τι ακριβώς σημαίνουν αυτές οι στήλες.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Αυτές οι πληροφορίες για τη σημασία δεν υπήρχαν.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
Πρέπει να συνάγει από τις γνώσεις που έχει ότι:
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
«Το arXiv είναι μια ιστοσελίδα όπου υποβάλλονται άρθρα
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
άρα αυτά είναι άρθρα κι αυτοί είναι ακέραιοι αριθμοί
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
άρα είναι ο αριθμός των συγγραφέων σε κάθε άρθρο»,
αυτό το κάνει ένας άνθρωπος,
12:23
like all of that, that’s work for a human to do,
248
743114
2252
και η ΤΝ μπορεί ευχαρίστως να βοηθήσει.
12:25
and the AI is happy to help with it.
249
745408
1751
Τώρα δεν ξέρω καν τι θέλω να ρωτήσω.
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
Ευτυχώς, μπορείτε να ρωτήσετε τη μηχανή:
12:32
"Can you make some exploratory graphs?"
252
752248
1877
«Μπορείς να κάνεις μερικά επεξηγηματικά γραφήματα;»
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Και πάλι, είναι μια υψηλού επιπέδου οδηγία με πολλά νοήματα.
12:41
But I don't even know what I want.
254
761507
1668
Αλλά δεν ξέρω καν τι θέλω.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
Η ΤΝ πρέπει να υποθέσει τι θα με ενδιέφερε.
Δίνει λοιπόν μερικές καλές ιδέες, πιστεύω.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Ιστόγραμμα αριθμού συγγραφέων ανά άρθρο,
12:48
So a histogram of the number of authors per paper,
257
768472
2336
χρονοδιάγραμμα άρθρων ανά έτος, ένα συννεφόλεξο των τίτλων των άρθρων.
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Νομίζω ότι όλα είναι πολύ ενδιαφέροντα.
Το πιο σπουδαίο είναι ότι μπορεί να το κάνει.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
Ορίστε μια καμπύλη κατανομής.
Βλέπετε ότι το σύνηθες είναι το «τρεις».
13:00
You see that three is kind of the most common.
262
780151
2169
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
Έπειτα κάνει αυτό το διάγραμμα των άρθρων ανά έτος.
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Κάτι παράλογο συμβαίνει όμως το 2023.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Φαίνεται η ανοδική πορεία ξαφνικά γκρεμίστηκε.
Τι θα μπορούσε να συμβαίνει;
13:13
What could be going on there?
266
793539
1460
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Όλα αυτά είναι κώδικας Python που μπορείτε να ελέγξετε.
13:17
And then we'll see word cloud.
268
797752
1459
Μετά βλέπουμε το συννεφόλεξο.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Μπορείτε να δείτε όλα τα υπέροχα πράγματα που εμφανίζονται στους τίτλους.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Δεν μου αρέσει όμως αυτό το 2023.
13:25
It makes this year look really bad.
271
805634
1711
Αυτό το έτος φαίνεται χάλια.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Το πρόβλημα είναι ότι το έτος δεν τελείωσε.
13:30
So I'm going to push back on the machine.
273
810222
2878
Θα το επαναπροωθήσω στη μηχανή.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Περίμενε, δεν είναι δίκαιο!
13:34
2023 isn't over.
275
814727
1293
Το 2023 δεν τελείωσε.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
Τι ποσοστό άρθρων του 2022 δημοσιεύτηκαν ως τις 13 Απριλίου;]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Η ημερομηνία διακοπής μάλλον ήταν η 13η Απριλίου.
13:47
Can you use that to make a fair projection?
278
827656
4922
Μπορείς να το χρησιμοποιήσεις για να κάνεις την αντιστοίχιση;
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
Είναι πολύ υψηλή απαίτηση.
13:57
(Laughter)
280
837083
1126
(Γέλια)
13:59
So you know,
281
839877
1251
Για άλλη μια φορά,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
νομίζω ότι ήθελα περισσότερα εδώ από τη μηχανή.
14:05
I really wanted it to notice this thing,
283
845049
2502
Ήθελα να το προσέξει αυτό,
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
αλλά ίσως είναι υπερβολικό
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
να το κατατάξει, να εξάγει αυτόματα αυτό που ήθελα.
14:14
But I inject my intent,
286
854183
1627
Δήλωσα όμως την πρόθεσή μου,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
παρείχα αυτή την πρόσθετη καθοδήγηση.
14:20
And under the hood,
288
860564
1168
Στο παρασκήνιο,
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
η ΤΝ γράφει ξανά κώδικα, ώστε αν θέλετε να ελέγξετε τι κάνει,
14:25
it's very possible.
290
865403
1251
αυτό μπορεί να γίνει.
14:26
And now, it does the correct projection.
291
866654
3628
Τώρα κάνει τη σωστή προβολή.
14:30
(Applause)
292
870282
5005
(Χειροκρότημα)
14:35
If you noticed, it even updates the title.
293
875287
2169
Προσέξτε, άλλαξε ακόμη και τον τίτλο.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Αυτό δεν το ζήτησα, αλλά ξέρει τι θέλω.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Επιστρέφουμε στην παρουσίαση.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Παρουσιάζεται μια προσομοίωση,
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
ένα όραμα για το πώς θα γίνουμε
χρησιμοποιώντας αυτή την τεχνολογία στο μέλλον.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Ένα άτομο έφερε στον κτηνίατρο τον σοβαρά άρρωστο σκύλο του,
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
και ο κτηνίατρος έκανε το λάθος να πει: «Ας περιμένουμε και θα δούμε».
15:01
And the dog would not be here today had he listened.
300
901897
2795
Ο σκύλος δεν θα ήταν μαζί μας σήμερα αν άκουγαν τον κτηνίατρο.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Εντωμεταξύ, έδωσε τις εξετάσεις αίματος,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
όλο το ιατρικό ιστορικό, στο GPT-4,
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
το οποίο είπε: «Δεν είμαι κτηνίατρος, πρέπει να απευθυνθείς σε ειδικό,
15:13
here are some hypotheses."
304
913492
1710
ορίστε ορισμένες υποθέσεις».
15:15
He brought that information to a second vet
305
915786
2127
Πήγε τις πληροφορίες σε άλλον κτηνίατρο
15:17
who used it to save the dog's life.
306
917913
1835
ο οποίος τις χρησιμοποίησε κι έσωσε τη ζωή του σκύλου.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Αυτά τα συστήματα δεν είναι τέλεια.
15:23
You cannot overly rely on them.
308
923544
2336
Δεν μπορούμε να στηριχτούμε υπερβολικά σε αυτά.
15:25
But this story, I think, shows
309
925880
3712
Αυτή η ιστορία νομίζω όμως ότι δείχνει
15:29
that a human with a medical professional
310
929592
3044
ότι ένας άνθρωπος κι ένας γιατρός
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
με τη βοήθεια του ChatGPT να δίνει ιδέες
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
μπόρεσαν να επιτύχουν κάτι που δεν θα γινόταν αλλιώς.
15:38
I think this is something we should all reflect on,
313
938476
2419
Νομίζω ότι όλοι πρέπει να το σκεφτούμε,
15:40
think about as we consider how to integrate these systems
314
940895
2711
να σκεφτούμε πώς θα ενσωματώσουμε αυτά τα συστήματα στον κόσμο μας.
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
Αυτό που πιστεύω ακράδαντα
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
είναι ότι το να κάνουμε σωστή την ΤΝ χρειάζεται τη συμμετοχή όλων μας.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Πρέπει να αποφασίσουμε πώς θέλουμε να παρεμβαίνει,
15:53
that's for setting the rules of the road,
319
953365
1961
να ορίσουμε τους κανόνες της διαδικασίας,
15:55
for what an AI will and won't do.
320
955367
2044
τι μπορεί να κάνει μια ΤΝ και τι όχι.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Αν κρατήσουμε κάτι από αυτή την ομιλία,
15:59
it's that this technology just looks different.
322
959997
2211
είναι ότι αυτή η τεχνολογία μοιάζει διαφορετική.
16:02
Just different from anything people had anticipated.
323
962208
2502
Απλώς διαφορετική πέρα από κάθε προσδοκία.
16:04
And so we all have to become literate.
324
964710
1835
Όλοι πρέπει να επιμορφωθούμε.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Είναι ένας από τους λόγους που κάναμε διαθέσιμο το GhatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Μαζί πιστεύω ότι μπορούμε να πετύχουμε τον στόχο της OpenAI
16:12
of ensuring that artificial general intelligence
327
972718
2252
να εξασφαλίσουμε ότι γενικά η ΤΝ
16:14
benefits all of humanity.
328
974970
1877
θα ωφελήσει όλη την ανθρωπότητα.
16:16
Thank you.
329
976847
1168
Ευχαριστώ.
16:18
(Applause)
330
978057
6965
(Χειροκρότημα)
16:33
(Applause ends)
331
993322
1168
(Τέλος χειροκροτήματος)
16:34
Chris Anderson: Greg.
332
994532
1334
Κρις Άντερσον: Γκρεγκ.
16:36
Wow.
333
996242
1167
Ουάου.
16:37
I mean ...
334
997868
1126
Θέλω να πω...
16:39
I suspect that within every mind out here
335
999662
3753
υποψιάζομαι ότι μέσα τους όλοι εδώ
16:43
there's a feeling of reeling.
336
1003457
2503
νιώθουν ένα δέος.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
Πιθανόν πολλοί από αυτούς που παρακολουθούν
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
τα βλέπουν αυτά και σκέφτονται:
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
«Πρέπει να ξανασκεφτώ σχεδόν κάθε πράγμα σχετικά με τον τρόπο που δουλεύω».
16:55
Like, there's just new possibilities there.
340
1015386
2002
Υπάρχουν ένα σωρό νέες δυνατότητες.
16:57
Am I right?
341
1017388
1168
Σωστά τα λέω;
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
Ποιοι συμφωνούν ότι πρέπει να σκεφτούμε ξανά πώς πράττουμε;
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Νομίζω ότι είναι καταπληκτικό,
17:03
but it's also really scary.
344
1023561
2002
αλλά και πραγματικά τρομακτικό.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Ας συζητήσουμε λίγο Γκρεγκ.
Γκρεγκ Μπρόκμαν: Βεβαίως.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
ΚΑ: Η πρώτη μου ερώτηση είναι απλώς πώς στο διάολο το κάνατε αυτό;
17:10
how the hell have you done this?
347
1030901
1585
(Γέλια)
17:12
(Laughter)
348
1032486
1251
17:13
OpenAI has a few hundred employees.
349
1033737
2962
Η OpenAI έχει μερικές εκατοντάδες εργαζόμενους.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Η Google έχει χιλιάδες εργαζόμενους που δουλεύουν στην ΤΝ.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Πώς έγινε και φτιάξατε εσείς αυτή την τεχνολογία
17:25
that shocked the world?
352
1045541
1168
που έχει καταπλήξει τον κόσμο;
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
ΓΜ: Η αλήθεια είναι
ότι πατήσαμε στους ώμους γιγάντων, δεν υπάρχει αμφιβολία.
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
Η πρόοδος των υπολογιστών, των αλγορίθμων, των δεδομένων,
17:31
If you look at the compute progress,
355
1051797
1752
17:33
the algorithmic progress, the data progress,
356
1053549
2085
όλα αυτά είναι κοινά σε όλο τον κλάδο.
17:35
all of those are really industry-wide.
357
1055634
1835
Νομίζω ότι στην OpenAI
κάναμε πολύ προσεκτικές επιλογές από τις πρώτες κιόλας μέρες.
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
Η πρώτη ήταν να βλέπουμε τα πράγματα όπως είναι.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
Σκεφτήκαμε πάρα πολύ γι′ αυτά:
17:44
And that we just thought really hard about like:
361
1064393
2294
17:46
What is it going to take to make progress here?
362
1066687
2210
Τι χρειάζεται για να κάνουμε πρόοδο εδώ;
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
Δοκιμάσαμε πολλά που απέτυχαν, αλλά βλέπετε μόνο αυτά που πέτυχαν.
Νομίζω ότι το πιο σημαντικό είναι να φτιάξεις ομάδες ανθρώπων
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
πολύ διαφορετικών μεταξύ τους που δουλεύουν μαζί αρμονικά.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
ΚΑ: Μπορούμε να έχουμε λίγο νερό εδώ;
Θα το χρειαστούμε, το θέμα σηκώνει πολλή συζήτηση.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
Δεν είναι όμως και το γεγονός
18:09
that you saw something in these language models
369
1089501
4755
ότι είδατε κάτι σε αυτά τα γλωσσικά μοντέλα
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
που σήμαινε ότι αν συνεχίζατε να επενδύετε σε αυτά,
18:18
that something at some point might emerge?
371
1098218
3129
κάτι θα προέκυπτε κάποια στιγμή;
18:21
GB: Yes.
372
1101847
1126
ΓΜ: Ναι.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Πιστεύω ειλικρινά
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
ότι αυτή η ιστορία τα λέει όλα, σωστά;
18:28
I think that high level, deep learning,
375
1108437
2002
Πάντα θέλαμε να έχουμε ένα υψηλό επίπεδο, να ασχολούμαστε με τα νευρωνικά δίκτυα,
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
και πώς ακριβώς θα το κάναμε;
Νομίζω ότι στην αρχή δεν ξέραμε.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
Δοκιμάσαμε πολλά πράγματα,
18:37
We tried a lot of things,
379
1117529
1210
κι ένα άτομο εργαζόταν στην εκπαίδευση ενός μοντέλου
18:38
and one person was working on training a model
380
1118739
2336
για την πρόβλεψη του επόμενου χαρακτήρα στις κριτικές της Amazon,
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
και είχε ένα αποτέλεσμα, πρόκειται για μια διαδικασία σύνταξης,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
το μοντέλο προβλέπει πού θα μπουν τα κόμματα,
18:51
where the nouns and verbs are.
384
1131835
1627
πού τα ρήματα και πού τα ουσιαστικά.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Αλλά μας προέκυψε ένα εργαλείο ανάλυσης συναισθημάτων.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Το μοντέλο μπορούσε να πει αν μια κριτική ήταν θετική ή αρνητική.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Σήμερα θεωρούμε ότι ο καθένας μπορεί να το κάνει.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Ήταν όμως η πρώτη φορά που το είδαμε,
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
αυτό το είδος σημασίας που προέκυψε από τη διαδικασία της σύνταξης.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
Τότε καταλάβαμε ότι έπρεπε να το αναπτύξουμε αυτό, ως πού φτάνει.
19:14
you've got to see where it goes.
391
1154858
1544
ΚΑ: Νομίζω ότι αυτό λύνει την απορία όλων,
19:16
CA: So I think this helps explain
392
1156402
1626
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
γιατί αυτά τα συστήματα περιγράφονται ως μηχανές πρόβλεψης.
19:20
because these things are described as prediction machines.
394
1160572
2753
Αυτά που βλέπουμε να κάνουν...
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
φαίνεται αδύνατο να προέρχονται από μια μηχανή πρόβλεψης.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Αυτό ακριβώς που μας έδειξες μόλις τώρα.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Η βασική ιδέα της ανακάλυψης είναι όταν προκύπτει κάτι παραπάνω,
19:35
suddenly different things emerge.
399
1175754
1585
ξαφνικά κάτι διαφορετικό.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
Σε αποικίες μυρμηγκιών,
μυρμήγκια τρέχουν μόνα τους, και όταν τα συγκεντρώνεις,
19:40
when you bring enough of them together,
401
1180384
1877
βλέπεις αποικίες μυρμηγκιών με εντελώς διαφορετική συμπεριφορά.
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Ή μια πόλη, όπου μερικά σπίτια είναι απλώς μερικά σπίτια στο ίδιο μέρος.
Αλλά όταν μεγαλώνει ο αριθμός των σπιτιών,
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
προκύπτουν πράγματα, όπως προάστια, και πολιτιστικά κέντρα, κίνηση.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Πες μου μια στιγμή που είδες να εμφανίζεται ξαφνικά
20:00
that just blew your mind
407
1200529
1668
κάτι που σε ξάφνιασε απόλυτα,
20:02
that you just did not see coming.
408
1202197
1627
που δεν το είδες να έρχεται.
20:03
GB: Yeah, well,
409
1203824
1209
ΓΜ: Στο ChatGPT, αν προσθέσεις 40ψήφιους αριθμούς...
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
20:08
CA: 40-digit?
411
1208537
1168
ΚΑ: 40ψήφιους;
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
ΓΜ.: 40ψήφιους, το μοντέλο θα το κάνει,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
που σημαίνει ότι πράγματι έμαθε έναν τρόπο να το κάνει.
20:15
And the really interesting thing is actually,
414
1215210
2127
Είναι πραγματικά ενδιαφέρον,
αν του δώσεις να προσθέσει έναν 40ψήφιο αριθμό με έναν 35ψήφιο,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
20:20
it'll often get it wrong.
416
1220591
1710
πολλές φορές θα κάνει λάθος.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Μπορείς να δεις ότι στ′ αλήθεια μαθαίνει τη διαδικασία,
20:25
but it hasn't fully generalized, right?
418
1225471
1876
αλλά δεν έχει κάνει ακόμη τη γενίκευση.
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Δεν μπορείς να απομνημονεύσεις τα αθροίσματα των 40ψήφιων,
20:30
that's more atoms than there are in the universe.
420
1230100
2294
πιο πολλά άτομα υπάρχουν στο σύμπαν.
Θα έπρεπε να έχει μάθει κάτι γενικό,
20:32
So it had to have learned something general,
421
1232394
2086
αλλά δεν το έχει ακόμη μάθει πλήρως,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
να γενικεύσει στην πρόσθεση τυχαίων αριθμών
20:39
of arbitrary lengths.
424
1239902
1167
με τυχαίο αριθμό ψηφίων.
ΚΑ: Αυτό που συνέβη λοιπόν
20:41
CA: So what's happened here
425
1241111
1335
20:42
is that you've allowed it to scale up
426
1242488
1793
είναι ότι του επιτρέψατε να αναβαθμίζεται
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
μέσω ενός τεράστιου αριθμού αποσπασμάτων κειμένων
20:46
And it is learning things
428
1246742
1209
και μαθαίνει πράγματα
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
που δεν ξέραμε ότι ήταν ικανό να μάθει.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
ΓΜ: Αντιλαμβάνεται και τις διαφορές.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Μια επιστήμη στην οποία αρχίζουμε να εντρυφούμε
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
είναι η πρόβλεψη ορισμένων από αυτές τις ικανότητες.
20:58
And to do that actually,
433
1258962
1335
Για να το πετύχουμε αυτό,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
ένα από τα πράγματα που υποτιμώνται στον τομέα
είναι η ποιότητα κατασκευής.
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Έπρεπε να ανακατασκευάσουμε όλο μας το απόθεμα.
21:06
When you think about building a rocket,
437
1266637
1877
Όταν κατασκευάζεις έναν πύραυλο,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
κάθε συμβιβασμός πρέπει να είναι απειροελάχιστος.
21:10
Same is true in machine learning.
439
1270766
1626
Το ίδιο ισχύει για τη μηχανική μάθηση.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Πρέπει κάθε κομματάκι να κατασκευάζεται όπως πρέπει,
21:15
and then you can start doing these predictions.
441
1275646
2210
και τότε μπορεί κανείς να αρχίσει τις προβλέψεις.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Υπάρχουν αυτές οι απίστευτα αδιόρατες αναβαθμίσεις,
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
κάτι βαθιά θεμελιώδες για την ευφυΐα.
Αν δεις το μπλογκ μας για το GPT-4
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
μπορείς να δεις εκεί όλες αυτές τις αναβαθμίσεις.
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
Τώρα μπορούμε πια να κάνουμε προβλέψεις.
Μπορούμε να προβλέψουμε την επίδοση σε προβλήματα κώδικα.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
Βασικά συγκρίνουμε με μοντέλα που είναι 10.000 ή 1.000 φορές μικρότερα.
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
Αυτό είναι πράγματι μια αδιόρατη κλιμάκωση,
παρόλο που ακόμη είμαστε σε πρώιμο στάδιο.
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
ΚΑ: Να λοιπόν ένας μεγάλος φόβος
21:45
that arises from this.
453
1305300
1252
που πηγάζει από αυτό.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Αν είναι θεμελιώδες αυτό που συμβαίνει εδώ,
21:48
that as you scale up,
455
1308720
1210
σε μια κλιμάκωση,
21:49
things emerge that
456
1309930
2419
προκύπτουν πράγματα
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
που μπορούν να προβλεφθούν με έναν βαθμό βεβαιότητας,
21:56
but it's capable of surprising you.
458
1316562
2544
αλλά μπορεί να αποτελούν και έκπληξη.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Δεν υπάρχει τεράστιος κίνδυνος να προκύψει κάτι τρομακτικό;
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
ΓΜ: Νομίζω ότι όλα είναι ζήτημα βαθμού, κλίμακας και χρόνου.
22:07
and scale and timing.
461
1327865
1209
22:09
And I think one thing people miss, too,
462
1329116
1877
Οι άνθρωποι παραβλέπουν
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
ότι η ενσωμάτωση με τον κόσμο είναι επίσης πολύ ισχυρή.
22:14
sort of, very powerful thing too.
464
1334621
1585
Είναι ένας από τους λόγους που νομίζουμε ότι είναι σημαντικό
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
22:19
to deploy incrementally.
466
1339293
1167
να εξελιχθεί σταδιακά.
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
Αυτό που βλέπουμε τώρα, σε αυτή την ομιλία,
είναι ότι εστιάζουμε στην παροχή υψηλής ποιότητας ανατροφοδότησης.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Σήμερα, τις εργασίες που κάνουμε, μπορούμε να τις επιβλέψουμε.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Είναι εύκολο να δεις το μαθηματικό πρόβλημα
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
και να πεις, όχι ρε μηχανή, το επτά είναι η σωστή απάντηση.
22:33
machine, seven was the correct answer.
471
1353265
1835
Αλλά η σύνοψη ενός βιβλίου είναι δύσκολη στην επίβλεψη.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Πώς ξέρεις αν πρόκειται για μια καλή σύνοψη;
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Πρέπει να διαβάσεις όλο το βίβλιο. Κανείς δεν το θέλει.
22:40
You have to read the whole book.
474
1360939
1543
22:42
No one wants to do that.
475
1362482
1168
(Γέλια)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Νομίζω ότι το σημαντικό είναι να πάμε βήμα-βήμα.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Καθώς προχωράμε στη σύνοψη βιβλίων,
22:51
we have to supervise this task properly.
479
1371867
1960
πρέπει να επιβλέψουμε σωστά τη διαδικασία.
22:53
We have to build up a track record with these machines
480
1373827
2586
Πρέπει να φτιάξουμε ένα αρχείο με αυτές τις μηχανές
22:56
that they're able to actually carry out our intent.
481
1376413
2586
ώστε να καταλαβαίνουν την πρόθεσή μας.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
Νομίζω ότι θα πρέπει να παράγουμε ακόμη πιο αποτελεσματικούς,
πιο αξιόπιστους τρόπους αναβάθμισης,
23:02
more reliable ways of scaling this,
483
1382419
1710
περίπου σαν να ευθυγραμμιζόμαστε με τη μηχανή.
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
ΚΑ: Θα ακούσουμε αργότερα σε αυτή τη συνεδρία,
23:09
there are critics who say that,
486
1389343
1543
υπάρχουν σκεπτικιστές που λένε
23:10
you know, there's no real understanding inside,
487
1390928
4587
ότι δεν υπάρχει μέσα τους αληθινή κατανόηση,
23:15
the system is going to always --
488
1395557
1627
ποτέ δεν θα ξέρουμε ότι δεν παράγει λάθη,
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
ότι δεν έχει κοινή λογική και ούτω καθεξής.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Πιστεύεις, Γκρεγκ, ότι είναι αλήθεια αυτό,
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
αλλά ότι η επέκταση της αναβάθμισης και η ανθρώπινη ανατροφοδότηση
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
για την οποία μίλησες θα πάρει αυτή την πορεία
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
και θα καταλήξει σε πράγματα όπως η αλήθεια και η σοφία,
23:39
with a high degree of confidence.
495
1419331
1627
με υψηλό βαθμό βεβαιότητας;
23:40
Can you be sure of that?
496
1420999
1335
Μπορείς να είσαι σίγουρος;
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
ΓΜ: Νομίζω ότι η OpenAI, εν ολίγοις, ναι μπορεί.
23:45
I believe that is where we're headed.
498
1425796
1793
Πιστεύω ότι προς τα εκεί πάμε.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
Πιστεύω ότι η προσέγγιση της OpenAI πάντα ήταν έτσι,
23:50
let reality hit you in the face, right?
500
1430842
1877
άσε την πραγματικότητα να πέσει πάνω σου.
23:52
It's like this field is the field of broken promises,
501
1432719
2503
Αυτό το πεδίο είναι γεμάτο αθετημένες υποσχέσεις,
όλων των ειδικών που λένε ότι θα συμβεί το τάδε κτλ.
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
Έλεγαν ότι τα νευρωνικά δίκτυα δεν θα λειτουργούσαν ούτε σε 70 χρόνια.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
24:01
They haven't been right yet.
504
1441812
1376
Δεν ξέρουμε ακόμη.
Μπορεί να επιβεβαιωθούν 70 χρόνια και ένα αργότερα ή κάτι τέτοιο.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
24:05
or something like that is what you need.
506
1445232
1918
Η προσέγγισή μας όμως ήταν πάντα
24:07
But I think that our approach has always been,
507
1447192
2169
να ξεπερνάμε τα όρια αυτής της τεχνολογίας,
24:09
you've got to push to the limits of this technology
508
1449361
2419
να τη δοκιμάζουμε στην πράξη,
24:11
to really see it in action,
509
1451822
1293
γιατί τότε μπορούμε να καταλάβουμε πώς θα συνεχίσουμε σε κάτι άλλο.
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
Δεν έχουμε εξαντλήσει ακόμη τα δεδομένα.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
ΚΑ: Έχεις μια αμφιλεγόμενη άποψη,
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
ότι ο σωστός τρόπος είναι να το ανοίξεις στο κοινό
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
και μετά να το αξιοποίησεις
24:24
and then harness all this, you know,
514
1464710
1751
αντί να αφήσεις την ομάδα σου να δίνει ανατροφοδότηση,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
ο κόσμος δίνει τώρα ανατροφοδότηση.
24:30
But ...
517
1470924
1168
Αλλά...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
αν τυχόν προκύψουν άσχημα πράγματα,
24:36
it is out there.
519
1476930
1168
θα είναι εκεί έξω.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
Η αρχική ιστορία που άκουσα στην OpenAI
24:41
when you were founded as a nonprofit,
521
1481101
1793
όταν ιδρύθηκε ως μη κερδοσκοπική εταιρεία,
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
ήταν ότι κάνατε έναν έλεγχο στις μεγάλες εταιρείες
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
που έκαναν άγνωστα, ίσως άσχημα πράματα με την ΤΝ.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Άκουσα ότι θα φτιάχνατε μοντέλα
που θα τις καθιστούσαν υπεύθυνες
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
και θα μπορούσαν να επιβραδύνουν την έρευνα, αν χρειαζόταν.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
Αυτό τουλάχιστον είχα ακούσει.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Αυτό που συνέβη, ήταν ακριβώς το αντίθετο.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Η απελευθέρωση του GPT, και ιδιαίτερα του ChatGPT,
25:12
sent such shockwaves through the tech world
530
1512049
2002
προκάλεσε σοκ στον κόσμο της τεχνολογίας
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
ώστε τώρα η Google και η Meta και άλλοι προσπαθούν να προλάβουν το κύμα.
25:17
And some of their criticisms have been,
532
1517888
2085
Επικρίνοντας λένε
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
ότι τις αναγκάζεις να τα δημοσιοποιήσουν χωρίς τα απαραίτητα μέτρα προστασίας.
25:25
You know, how do you, like,
534
1525020
2794
Πώς θα είστε σίγουροι ότι αυτό που κάνετε
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
είναι υπεύθυνο και όχι ανεύθυνο.
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
ΓΜ: Τα σκεφτόμαστε αυτά όλη την ώρα.
25:34
Like, seriously all the time.
537
1534738
1418
Πραγματικά όλη την ώρα.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Μπορεί να μην τα κάνουμε όλα σωστά.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Ένα πράγμα νομίζω ότι είναι απίστευτα σημαντικό,
25:41
from the very beginning, when we were thinking
540
1541411
2169
από πολύ νωρίς, όταν σκεφτόμασταν πώς να φτιάξουμε γενικά την ΤΝ,
25:43
about how to build artificial general intelligence,
541
1543580
2419
πώς να ωφελήσει όλη την ανθρωπότητα,
25:45
actually have it benefit all of humanity,
542
1545999
2002
πώς να το κάνει κανείς αυτό αλήθεια;
25:48
like, how are you supposed to do that, right?
543
1548001
2127
Από προεπιλογή, φτιάχνεις κάτι στα κρυφά,
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
και προκύπτει αυτό το πανίσχυρο πράγμα,
25:52
you get this super powerful thing,
545
1552923
1626
σχεδιάζεις την ασφάλειά του και πατάς το κουμπί,
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
κι ελπίζεις να το πέτυχες.
25:57
and you hope you got it right.
547
1557552
1460
Δεν ξέρω πώς να εκτελέσω αυτό το σχέδιο.
25:59
I don't know how to execute that plan.
548
1559012
1835
Μπορεί να ξέρει κάποιος άλλος.
26:00
Maybe someone else does.
549
1560889
1168
Για μένα ήταν πάντα τρομακτικό, δεν ένιωθα καλά.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Νομίζω ότι αυτή η εναλλακτική προσέγγιση
26:04
And so I think that this alternative approach
551
1564976
2128
είναι ο μόνος δρόμος που βλέπω,
26:07
is the only other path that I see,
552
1567104
2043
να αφήνεις να σε βρει η πραγματικότητα.
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
26:11
And I think you do give people time to give input.
554
1571691
2336
Δίνουμε στον κόσμο τον χρόνο να δώσει ανατροφοδότηση.
26:14
You do have, before these machines are perfect,
555
1574027
2211
Πριν ακόμη τελειοποιηθούν αυτές οι μηχανές,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
πριν να γίνουν πανίσχυρες, έχετε τη δυνατότητα
να τις δείτε στην πράξη.
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Το είδαμε από το GPT-3, σωστά;
Στο GPT-3 πραγματικά φοβόμασταν
26:22
GPT-3, we really were afraid
559
1582369
1376
26:23
that the number one thing people were going to do with it
560
1583745
2711
τα πράγματα που θα έκαναν οι άνθρωποι,
ότι θα δημιουργούσαν παραπληροφόρηση, θα χειραγωγούσαν τις εκλογές.
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Ωστόσο, το πρώτο πράγμα που έκαναν ήταν σπαμ για Viagra.
26:31
(Laughter)
563
1591545
3169
(Γέλια)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
ΚΑ: Κακό το σπαμ για Viagra, αλλά υπάρχουν και χειρότερα.
Να ένα υποθετικό σενάριο.
26:39
Here's a thought experiment for you.
565
1599219
1752
26:40
Suppose you're sitting in a room,
566
1600971
1710
Ας πούμε ότι κάθεσαι σε ένα δωμάτιο,
26:42
there's a box on the table.
567
1602681
1668
υπάρχει ένα κουτί στο τραπέζι.
26:44
You believe that in that box is something that,
568
1604349
3003
Πιστεύεις ότι στο κουτί
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
είναι πολύ πιθανό να υπάρχει κάτι απίστευτα υπέροχο
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
που θα δώσει υπέροχα δώρα στην οικογένειά σου και σε όλους.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Αλλά έχει και κάτι μικρά γραμματάκια εκεί
26:58
that says: “Pandora.”
572
1618029
1877
που λένε «Πανδώρα».
26:59
And there's a chance
573
1619906
1669
Υπάρχει μια πιθανότητα
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
να εξαπολυθούν ανείπωτα κακά στον κόσμο.
27:06
Do you open that box?
575
1626538
1543
Θα ανοίξεις το κουτί;
27:08
GB: Well, so, absolutely not.
576
1628123
1460
ΓΜ: Όχι βέβαια.
27:09
I think you don't do it that way.
577
1629624
1919
Δεν νομίζω ότι αυτό κάνουμε.
Ειλικρινά, θα σου πω μια ιστορία που δεν έχω ξαναπεί σε κανέναν.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
Λίγο αφότου ξεκινήσαμε την OpenAI,
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
θυμάμαι ήμουν στο Πουέρτο Ρίκο σε ένα συνέδριο ΤΝ.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Ήμουν στο δωμάτιο του ξενοδοχείου κι έβλεπα αυτά τα υπέροχα νερά,
27:24
all these people having a good time.
582
1644806
1752
τους ανθρώπους να διασκεδάζουν.
27:26
And you think about it for a moment,
583
1646558
1752
Αν το σκεφτείς λίγο,
θα μπορούσες να επιλέξεις αυτό το κουτί της Πανδώρας
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
να ανοίξει πέντε χρόνια μετά
27:35
or 500 years away,
586
1655567
1585
ή 500 χρόνια μετά,
27:37
which would you pick, right?
587
1657194
1501
τι θα διάλεγες;
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
Από τη μια μεριά, ίσως για σένα προσωπικά,
27:41
it's better to have it be five years away.
589
1661573
2002
θα ήταν καλύτερα πέντε χρόνια μετά.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Αλλά αν γίνει 500 χρόνια μετά και έχουμε τον χρόνο να το κάνουμε σωστά,
27:47
which do you pick?
591
1667287
1168
ποιο θα επιλέξεις;
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
Εκείνη τη στιγμή σκέφτηκα
27:50
I was like, of course you do the 500 years.
593
1670874
2002
φυσικά και θα επιλέξουμε τα 500 χρόνια.
Ο αδερφός μου ήταν στον στρατό τότε
27:53
My brother was in the military at the time
594
1673293
2002
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
βάζοντας τη ζωή του σε κίνδυνο με πολύ πιο απτό τρόπο
27:58
than any of us typing things in computers
596
1678256
2628
απ′ ό,τι όλοι εμείς που γράφουμε σε υπολογιστές
28:00
and developing this technology at the time.
597
1680926
2585
και αναπτύσσουμε αυτή την τεχνολογία.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Πιστεύω στ′ αλήθεια ότι πρέπει να το κάνουμε σωστά.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Αλλά δεν νομίζω ότι έτσι ακριβώς παίζεται το παιχνίδι.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Αν δει κανείς όλη την ιστορία της πληροφορικής,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
το εννοώ όταν λέω ότι πρόκειται για όλο τον κλάδο,
28:18
or even just almost like
602
1698902
1543
ή ακόμη για μια αλλαγή στην εξέλιξη του ανθρώπου και της τεχνολογίας.
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Όσο δεν βάζουμε τα κομμάτια στη θέση τους,
28:27
that are there, right,
605
1707994
1293
28:29
we're still making faster computers,
606
1709329
1752
φτιάχνουμε ταχύτερους υπολογιστές,
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
διορθώνουμε τους αλγόριθμους, όλα αυτά συμβαίνουν.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Αν δεν τα συνενώσεις, θα δημιουργήσεις μια ανωμαλία,
που σημαίνει ότι αν κάποιος το κάνει,
28:37
which means that if someone does,
609
1717420
1627
ή τη στιγμή που κάποιος καταφέρει να ενώσει τα κομμάτια,
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
τότε έχουμε αίφνης αυτό το πανίσχυρο πράγμα,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
χωρίς χρόνο προσαρμογής,
28:44
no one's had any time to adjust,
612
1724427
1544
ποιος ξέρει αν είναι ασφαλές.
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Ένα πράγμα μένει στο μυαλό μου,
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
αν σκεφτείς τον προγραμματισμό ή άλλες τεχνολογίες,
αν σκεφτείς τα πυρηνικά όπλα,
28:54
think about nuclear weapons,
616
1734187
1376
28:55
people talk about being like a zero to one,
617
1735563
2002
όλοι μιλούν για μια κοσμογονική αλλαγή
28:57
sort of, change in what humans could do.
618
1737565
2628
σε αυτά που μπορούν να κάνουν οι άνθρωποι.
29:00
But I actually think that if you look at capability,
619
1740235
2461
Αν δούμε όμως τις δυνατότητες, εμφανίστηκαν σταδιακά μέσα στον χρόνο.
29:02
it's been quite smooth over time.
620
1742696
1585
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
Η ιστορία κάθε τεχνολογίας που αναπτύξαμε
29:07
has been, you've got to do it incrementally
622
1747993
2002
δείχνει ότι πρέπει όλα να γίνονται σταδιακά
29:10
and you've got to figure out how to manage it
623
1750036
2127
και πρέπει να βρούμε τρόπους διαχείρισης
29:12
for each moment that you're increasing it.
624
1752163
2461
κάθε φορά που κάνουμε ένα βήμα μπροστά.
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
ΚΑ: Αυτό που καταλαβαίνω
29:16
the model you want us to have
626
1756918
1668
είναι ότι το μοντέλο που μας δίνεις
29:18
is that we have birthed this extraordinary child
627
1758628
2795
είναι σαν να γεννήσαμε αυτό το χαρισματικό παιδί
29:21
that may have superpowers
628
1761423
2544
που μπορεί να έχει υπερδυνάμεις
που μπορούν να ανεβάσουν την ανθρωπότητα σε άλλο επίπεδο.
29:24
that take humanity to a whole new place.
629
1764009
2544
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Είναι ευθύνη όλων μας να θέσουμε τα όρια
29:31
for this child
631
1771641
1210
γι′ αυτό το παιδί,
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
όλοι μαζί να το διδάξουμε να ενεργεί σοφά και να μη μας καταστρέψει όλους.
29:37
Is that basically the model?
633
1777939
1377
Αυτό είναι ουσιαστικά το μοντέλο;
29:39
GB: I think it's true.
634
1779357
1168
Γκ.Μπ.: Έτσι είναι.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Είναι σημαντικό ότι μπορεί να υπάρξουν αλλαγές πορείας.
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Προχωράμε βήμα-βήμα, ανάλογα με το τι συναντάμε.
29:46
And I think it's incredibly important today
637
1786740
2002
Είναι απίστευτα σημαντικό σήμερα
29:48
that we all do get literate in this technology,
638
1788783
2878
να μάθουμε καλά αυτή την τεχνολογία
29:51
figure out how to provide the feedback,
639
1791661
1919
να δούμε πώς θα δώσουμε ανατροφοδότηση,
29:53
decide what we want from it.
640
1793621
1377
να αποφασίσουμε τι θα κάνουμε.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Ελπίζω ότι αυτή θα συνεχίσει να είναι η καλύτερη πορεία,
29:58
but it's so good we're honestly having this debate
642
1798168
2377
Είναι τόσο καλό που κάνουμε αυτή τη συζήτηση
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
γιατί δεν θα μπορούσαμε αν δεν ήταν ήδη ανοιχτά διαθέσιμο.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
Κ.Α.: Γκρεγκ Μπρόκμαν, σ′ ευχαριστώ πολύ, που ήρθες στο TED και μας κατέπληξες!
30:07
(Applause)
645
1807302
1626
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7