Don't fear superintelligent AI | Grady Booch

270,234 views ・ 2017-03-13

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ilan Caner מבקר: Ido Dekkers
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
בילדותי הייתי החנון המוחלט.
00:17
I think some of you were, too.
1
17140
2176
אני חושב שכמה מכם היו גם.
00:19
(Laughter)
2
19340
1216
(צחוק)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
ואתה אדוני, שצחקת הכי חזק, כנראה עדיין גם היום.
00:23
(Laughter)
4
23820
2256
(צחוק)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
גדלתי בעיר קטנה במרחבים המאובקים של צפון טקסס,
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
בנו של השריף שהיה בן של כומר.
00:32
Getting into trouble was not an option.
7
32980
1920
להיקלע לצרות לא היתה אופציה.
00:35
And so I started reading calculus books for fun.
8
35860
3256
אז התחלתי לקרוא ספרי חשבון בשביל הכיף.
00:39
(Laughter)
9
39140
1536
(צחוק)
00:40
You did, too.
10
40700
1696
אתם גם.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
זה הוביל אותי לבניית לייזר ומחשב ומודלים של טילים,
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
מה שהוביל אותי לייצר דלק טילים בחדר השינה שלי.
00:49
Now, in scientific terms,
13
49780
3656
ובכן, במונחים מדעיים,
00:53
we call this a very bad idea.
14
53460
3256
אנחנו קוראים לזה רעיון רע מאוד.
00:56
(Laughter)
15
56740
1216
(צחוק)
00:57
Around that same time,
16
57980
2176
בערך באותו זמן,
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
הסרט ״2001 אודיסאה בחלל״ של סטנלי קובריק הגיע למסכים,
01:03
and my life was forever changed.
18
63420
2200
וחיי השתנו לנצח.
01:06
I loved everything about that movie,
19
66100
2056
אהבתי כל מה שהיה קשור לסרט,
01:08
especially the HAL 9000.
20
68180
2536
בייחוד את האל 9000 (HAL).
01:10
Now, HAL was a sentient computer
21
70740
2056
ובכן, האל היה מחשב בעל מודעות
01:12
designed to guide the Discovery spacecraft
22
72820
2456
שתוכנן להדריך את ספינת החלל דיסקברי
01:15
from the Earth to Jupiter.
23
75300
2536
בדרך מכדור הארץ לצדק.
01:17
HAL was also a flawed character,
24
77860
2056
האל היה גם טיפוס פגום,
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
כי בסופו של דבר הוא בחר להעדיף את המשימה על פני חיי אדם.
01:24
Now, HAL was a fictional character,
26
84660
2096
למרות שהאל היה דמות בדיונית,
01:26
but nonetheless he speaks to our fears,
27
86780
2656
הוא דיבר אל הפחדים שלנו,
01:29
our fears of being subjugated
28
89460
2096
הפחדים שלנו להיות משועבדים
01:31
by some unfeeling, artificial intelligence
29
91580
3016
על ידי בינה מלאכותית, ללא רגשות
01:34
who is indifferent to our humanity.
30
94620
1960
שאדישה לאנושיות שלנו.
01:37
I believe that such fears are unfounded.
31
97700
2576
אני מאמין שפחדים כאלו הם חסרי ביסוס.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
אכן, אנו נמצאים בזמן יוצא דופן
01:43
in human history,
33
103020
1536
בהסטוריה האנושית,
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
שבו, מונעים על ידי סרובינו לקבל את המגבלות של גופינו ומחשבותינו,
01:49
we are building machines
35
109580
1696
אנו בונים מכונות
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
בעלות עדינות, סיבוכיות יפיפיה וחינניות
01:54
that will extend the human experience
37
114940
2056
שיאריכו את טווח החוויה האנושית
01:57
in ways beyond our imagining.
38
117020
1680
בדרכים מעבר לדמיונינו.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
אחרי קריירה שהובילה אותי מהאקדמיה לטיס בחיל האויר
02:02
to Space Command to now,
40
122140
1936
לפיקוד על משימות חלל לעכשיו,
02:04
I became a systems engineer,
41
124100
1696
נהייתי מהנדס מערכות,
02:05
and recently I was drawn into an engineering problem
42
125820
2736
ולאחרונה נשאבתי לבעייה הנדסית
02:08
associated with NASA's mission to Mars.
43
128580
2576
הקשורה למשימה של נאס״א למאדים.
02:11
Now, in space flights to the Moon,
44
131180
2496
ובכן, במשימות חלל לירח,
02:13
we can rely upon mission control in Houston
45
133700
3136
אנו יכולים לסמוך על פיקוד המשימה ביוסטון
02:16
to watch over all aspects of a flight.
46
136860
1976
שיפקח על כל ההיבטים של הטיסה.
02:18
However, Mars is 200 times further away,
47
138860
3536
אבל, מאדים רחוק פי 200 יותר,
02:22
and as a result it takes on average 13 minutes
48
142420
3216
ולכן לוקח בממוצע 13 דקות
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
לשדר לנוע מכדור הארץ למאדים.
02:28
If there's trouble, there's not enough time.
50
148820
3400
אם קורות בעיות, אין מספיק זמן.
02:32
And so a reasonable engineering solution
51
152660
2496
ולכן פתרון הנדסי סביר
02:35
calls for us to put mission control
52
155180
2576
יהיה לשים את פיקוד המשימה
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
בתוך רכב החלל אוריון.
02:40
Another fascinating idea in the mission profile
54
160820
2896
רעיון מרתק נוסף בפרופיל המשימה
02:43
places humanoid robots on the surface of Mars
55
163740
2896
הוא לשים רובוטים דמויי אדם על פני מאדים
02:46
before the humans themselves arrive,
56
166660
1856
לפני שבני האדם מגיעים,
02:48
first to build facilities
57
168540
1656
בתחילה לשם בניית תשתיות
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
ולאחר מכן לשרת כחלק שיתופי מהצוות המדעי.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
כשהתבוננתי בזה מנקודת מבט הנדסית,
02:57
it became very clear to me that what I needed to architect
60
177980
3176
התבהרה לי ההבנה שמה שעלי לתכנן
03:01
was a smart, collaborative,
61
181180
2176
היא בינה מלאכותית חכמה, שיתופית
03:03
socially intelligent artificial intelligence.
62
183380
2376
ובעלת בינה חברתית.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
במילים אחרות, הייתי צריך לבנות משהו מאוד דומה להאל
03:10
but without the homicidal tendencies.
64
190100
2416
אבל ללא הנטיות האובדניות.
03:12
(Laughter)
65
192540
1360
(צחוק)
03:14
Let's pause for a moment.
66
194740
1816
בואו נעצור לרגע.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
האם זה אפשרי באמת לבנות בינה מלאכותית כזו?
03:20
Actually, it is.
68
200500
1456
למעשה, כן.
03:21
In many ways,
69
201980
1256
במובנים רבים,
03:23
this is a hard engineering problem
70
203260
1976
זו בעייה הנדסית קשה
03:25
with elements of AI,
71
205260
1456
עם אלמנטים של בינה מלאכותית,
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
ולא כדור שיער רטוב של בינה מלאכותית שצריך להיות מהונדס.
03:31
To paraphrase Alan Turing,
73
211460
2656
בפרפרזה על דבריו של אלן טיורינג,
03:34
I'm not interested in building a sentient machine.
74
214140
2376
אני לא מעוניין לבנות מכונה מודעת.
03:36
I'm not building a HAL.
75
216540
1576
אני לא בונה את האל.
03:38
All I'm after is a simple brain,
76
218140
2416
כל מה שאני רוצה הוא מוח פשוט,
03:40
something that offers the illusion of intelligence.
77
220580
3120
משהו שמציע את האשליה של בינה.
03:44
The art and the science of computing have come a long way
78
224820
3136
המדע והאומנות של המחשוב התקדמו רבות
03:47
since HAL was onscreen,
79
227980
1496
מאז שהאל הופיע על המסך,
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
ואני מדמיין שאם הממציא שלו ד״ר צ׳נדרה היה פה היום
03:52
he'd have a whole lot of questions for us.
81
232740
2336
היו לו הרבה שאלות אלינו.
03:55
Is it really possible for us
82
235100
2096
האם באמת אנחנו יכולים
03:57
to take a system of millions upon millions of devices,
83
237220
4016
לקחת מערכת של מליונים על מליונים של מכשירים,
04:01
to read in their data streams,
84
241260
1456
לקרוא את כל הנתונים מהם,
04:02
to predict their failures and act in advance?
85
242740
2256
לנחש את הכשלים ולהגיב מראש?
04:05
Yes.
86
245020
1216
כן.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
האם אנו יכולים לבנות מערכות המשוחחות עם בני אדם בשפה טבעית?
04:09
Yes.
88
249460
1216
כן.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
האם אנו יכולים לבנות מערכות שיכירו אובייקטים, יזהו רגשות,
04:13
emote themselves, play games and even read lips?
90
253700
3376
שיהו רגשניות, ישחקו משחקים ואפילו יקראו שפתיים?
04:17
Yes.
91
257100
1216
כן.
04:18
Can we build a system that sets goals,
92
258340
2136
האם ביכולתינו לבנות מערכות המציבות יעדים,
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
ומוציאות לפועל תוכניות לפי יעדים אלו ולומדות בדרך?
04:24
Yes.
94
264140
1216
כן.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
האם ביכולתינו לבנות מערכות בעלות מודעות?
04:28
This we are learning to do.
96
268740
1496
את זה אנו לומדים לעשות.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
האם ביכולתינו לבנות מערכות בעלות בסיס מורלי ואתי?
04:34
This we must learn how to do.
98
274300
2040
את זה אנו חייבים ללמוד לעשות.
04:37
So let's accept for a moment
99
277180
1376
אז בואו נקבל לרגע
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
שזה אפשרי לבנות כזו בינה מלאכותית
04:41
for this kind of mission and others.
101
281500
2136
עבור משימה זו ואחרות.
04:43
The next question you must ask yourself is,
102
283660
2536
השאלה הבאה שאתם חייבים לשאול את עצמכם היא,
04:46
should we fear it?
103
286220
1456
האם עלינו לפחד ממנה?
04:47
Now, every new technology
104
287700
1976
כל טכנולוגיה חדשה
04:49
brings with it some measure of trepidation.
105
289700
2896
מביאה איתה רמה מסויימת של חשש מהלא נודע.
04:52
When we first saw cars,
106
292620
1696
כשראינו לראשונה מכוניות,
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
אנשים חזו שנראה את הרס המשפחה.
04:58
When we first saw telephones come in,
108
298380
2696
כשראינו לראשונה טלפונים,
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
אנשים חששו שזה יביא לסופו של הדיון התרבותי.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
כשראינו בשלב מסויים את התפשטות המילה הכתובה,
05:07
people thought we would lose our ability to memorize.
111
307980
2496
אנשים חשבו שנאבד את היכולת לזכור.
05:10
These things are all true to a degree,
112
310500
2056
כל אלו נכונים במידה מסויימת,
05:12
but it's also the case that these technologies
113
312580
2416
אבל טכנולוגיות אלו
05:15
brought to us things that extended the human experience
114
315020
3376
הביאו דברים שהרחיבו את הנסיון האנושי
05:18
in some profound ways.
115
318420
1880
בדרכים עמוקות.
05:21
So let's take this a little further.
116
321660
2280
אז בואו ניקח את זה מעט רחוק יותר.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
אני לא מפחד מיצירת בינה מלאכותית כזו,
05:29
because it will eventually embody some of our values.
118
329700
3816
כיוון שבסופו של דבר היא תכיל גם כמה מהערכים שלנו.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
חישבו על כך: בניית מערכת קוגניטיבית היא שונה מהותית
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
מבניית מערכת מסורתית מרובת תוכנה של העבר.
05:40
We don't program them. We teach them.
121
340380
2456
אנו לא מתכנתים אותן, אנו מלמדים אותן.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
כדי ללמד מערכת לזהות פרחים,
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
אני מראה לה אלפי פרחים מהסוג שאני אוהב.
05:48
In order to teach a system how to play a game --
124
348580
2256
כדי ללמד מערכת לשחק משחק --
05:50
Well, I would. You would, too.
125
350860
1960
ובכן, הייתי עושה את זה. אתם גם.
05:54
I like flowers. Come on.
126
354420
2040
אני אוהב פרחים. בחייכם.
05:57
To teach a system how to play a game like Go,
127
357260
2856
כדי ללמד מערכת לשחק משחק כמו גו,
06:00
I'd have it play thousands of games of Go,
128
360140
2056
אגרום לה לשחק אלפי משחקי גו.
06:02
but in the process I also teach it
129
362220
1656
אבל בתהליך אלמד אותה
06:03
how to discern a good game from a bad game.
130
363900
2416
איך להבדיל בין משחק טוב למשחק רע.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
אם אני רוצה ליצור בינה מלאכותית עבור עזרה משפטית,
06:10
I will teach it some corpus of law
132
370060
1776
אלמד אותה כמה ספרי משפטים
06:11
but at the same time I am fusing with it
133
371860
2856
אך באותו זמן אשלב זאת עם
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
חוש הצדק והרחמים שהם חלק מאותם חוקים.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
במונחים מדעיים, זה מה שאנו קוראים לו אמת בסיסית,
06:21
and here's the important point:
136
381380
2016
והנה הנקודה החשובה:
06:23
in producing these machines,
137
383420
1456
כחלק מיצירת מכונות אלו,
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
אנו מלמדים אותן חלק מערכינו.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
בהקשר זה, אני סומך על בינה מלאכותית
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
באותה מידה, אם לא יותר, מאשר על אדם שאומן היטב.
06:35
But, you may ask,
141
395900
1216
אבל, אתם עלולים לשאול,
06:37
what about rogue agents,
142
397140
2616
מה לגבי סוכנים פורעי חוק,
06:39
some well-funded nongovernment organization?
143
399780
3336
כמו ארגון לא ממשלתי ממומן היטב?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
אני לא חושש מבינה מלאכותית בידיים של זאב בודד.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
ברור שאיננו יכולים להגן על עצמינו מכל מעשה אלימות אקראי,
06:51
but the reality is such a system
146
411540
2136
אבל המציאות לגבי מערכות אלו היא
06:53
requires substantial training and subtle training
147
413700
3096
שהן צריכות הרבה אימון, ואימון עדין
06:56
far beyond the resources of an individual.
148
416820
2296
הרבה מעבר למשאבים של אדם בודד.
06:59
And furthermore,
149
419140
1216
ובנוסף,
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
זה הרבה יותר מלהזריק וירוס אינטרנט לעולם,
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
כשאתה לוחץ על כפתור, ופתאום זה במליון מקומות
07:06
and laptops start blowing up all over the place.
152
426780
2456
ומחשבים מתחילים להתפוצץ בכל מקום.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
ובכן, מדובר פה במשהו הרבה יותר גדול,
07:12
and we'll certainly see them coming.
154
432100
1715
ובוודאות נראה את זה מגיע.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
האם אני חושש שבינה מלאכותית כזו
07:17
might threaten all of humanity?
156
437420
1960
עלולה לאיים על האנושות כולה?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
אם תתבוננו בסרטים כמו ״המטריקס״, ״מטרופוליס״ ,
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
״שליחות קטלית״, תוכניות כמו ״ווסטוורלד״,
07:27
they all speak of this kind of fear.
159
447700
2136
כולן מדברות על חשש שכזה.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
ואכן, בספר ״סופר אינטליגנציה״ של הפילוסוף ניק בוסטרום,
07:34
he picks up on this theme
161
454180
1536
הוא בוחן נושא זה
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
ושם לב שסופר אינטליגנציה עלולה להיות לא רק מסוכנת,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
אלא גם יכולה להוות איום קיומי על האנושות כולה.
07:43
Dr. Bostrom's basic argument
164
463660
2216
הטיעון הבסיסי של דוקטור בוסטרום
07:45
is that such systems will eventually
165
465900
2736
הוא שלמערכות כאלו יהיה בסופו של דבר
07:48
have such an insatiable thirst for information
166
468660
3256
צמאון בלתי ניתן לרוויה למידע
07:51
that they will perhaps learn how to learn
167
471940
2896
עד שהן אולי ילמדו ללמוד
07:54
and eventually discover that they may have goals
168
474860
2616
ולבסוף יגלו שאולי יש להן יעדים
07:57
that are contrary to human needs.
169
477500
2296
מנוגדים לצרכי בני האדם.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
לדוקטור בוסטרום יש מספר עוקבים.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
הוא נתמך ע״י אנשים כמו אלון מאסק וסטפן הוקינג.
08:06
With all due respect
172
486700
2400
עם כל הכבוד
08:09
to these brilliant minds,
173
489980
2016
למוחות מבריקים אלו,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
אני מאמין שהם שוגים באופן בסיסי.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
ובכן, יש הרבה חלקים לפרק בטיעון של דוקטור בוסטרום,
08:17
and I don't have time to unpack them all,
176
497500
2136
ואין לי זמן לפרק את כולם,
08:19
but very briefly, consider this:
177
499660
2696
אבל בקיצור רב, חישבו על כך:
08:22
super knowing is very different than super doing.
178
502380
3736
ידיעת-על היא מאוד שונה מעשיית-על.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
האל היה איום לצוות הדיסקברי
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
רק כיוון שהאל פיקד על כל הצדדים של הדיסקברי.
08:32
So it would have to be with a superintelligence.
181
512500
2496
אז כך גם יצטרך להיות עם סופר אינטליגנציה.
08:35
It would have to have dominion over all of our world.
182
515020
2496
היא תצטרך להיות בשליטה על כל עולמינו.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
זה מזכיר את סקיינט מהסרט ״שליחות קטלנית״
08:40
in which we had a superintelligence
184
520380
1856
שבו יש סופר אינטליגנציה
08:42
that commanded human will,
185
522260
1376
ששלטה על רצון בני האדם,
08:43
that directed every device that was in every corner of the world.
186
523660
3856
שכיוונה כל מכשיר בכל פינה של העולם.
08:47
Practically speaking,
187
527540
1456
אם להיות מעשיים,
08:49
it ain't gonna happen.
188
529020
2096
זה לא הולך לקרות.
08:51
We are not building AIs that control the weather,
189
531140
3056
אנחנו לא בונים בינה מלאכותית ששולטת במזג האוויר,
08:54
that direct the tides,
190
534220
1336
שמכוונת את הגאות,
08:55
that command us capricious, chaotic humans.
191
535580
3376
שמפקדת עלינו, האנשים הגחמניים והכאוטים.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
ובנוסף, אם בינה מלאכותית כזו הייתה קיימת,
09:02
it would have to compete with human economies,
193
542900
2936
היה עליה להתחרות בכלכלה האנושית,
09:05
and thereby compete for resources with us.
194
545860
2520
ולכן להתחרות נגדינו על משאבים.
09:09
And in the end --
195
549020
1216
ולבסוף --
09:10
don't tell Siri this --
196
550260
1240
אל תגלו לסירי --
09:12
we can always unplug them.
197
552260
1376
אנחנו תמיד יכולים לנתק אותם.
09:13
(Laughter)
198
553660
2120
(צחוק)
09:17
We are on an incredible journey
199
557180
2456
אנחנו נמצאים במסע מופלא
09:19
of coevolution with our machines.
200
559660
2496
של אבולוציה משותפת עם המכונות שלנו.
09:22
The humans we are today
201
562180
2496
האנשים שאנו היום
09:24
are not the humans we will be then.
202
564700
2536
הם לא אותם האנשים שנהיה אז.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
לדאוג היום מהעלייה של סופר אינטליגנציה
09:30
is in many ways a dangerous distraction
204
570420
3056
זה במובנים רבים הסחת דעת מסוכנת
09:33
because the rise of computing itself
205
573500
2336
כיוון שהעלייה במיחשוב עצמו
09:35
brings to us a number of human and societal issues
206
575860
3016
מביא אלינו מספר בעיות אנושיות וחברתיות
09:38
to which we must now attend.
207
578900
1640
שאנו חייבים לטפל בהן עכשיו.
09:41
How shall I best organize society
208
581180
2816
איך עלי לארגן את החברה האנושית
09:44
when the need for human labor diminishes?
209
584020
2336
כשהביקוש לעבודה אנושית הצטמצם?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
כיצד אני יכול להביא הבנה וחינוך לכל האנושות
09:50
and still respect our differences?
211
590220
1776
ועדיין לכבד את השונה ביננו?
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
איך אאריך ואשפר את חיינו תוך שימוש במערכת בריאות קוגניטיבית?
09:56
How might I use computing
213
596300
2856
כיצד אוכל להשתמש במחשוב
09:59
to help take us to the stars?
214
599180
1760
כדי לעזור לקחת אותנו לכוככבים?
10:01
And that's the exciting thing.
215
601580
2040
וזה הדבר המרתק.
10:04
The opportunities to use computing
216
604220
2336
ההזדמנויות להשתמש במיחשוב
10:06
to advance the human experience
217
606580
1536
לקידום ההתנסות האנושית
10:08
are within our reach,
218
608140
1416
הן בטווח ההשגה שלנו,
10:09
here and now,
219
609580
1856
כאן ועכשיו,
10:11
and we are just beginning.
220
611460
1680
ואנו רק מתחילים.
10:14
Thank you very much.
221
614100
1216
תודה רבה לכם.
10:15
(Applause)
222
615340
4286
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7