Робски труд за процесорите
Абонирайте се за Капитал

Всеки петък икономически анализ и коментар на текущите събития от седмицата.
Съдържанието е организирано в три области, за които Капитал е полезен:

K1 Средата (политическа, макроикономическа регулаторна правна)
K2 Бизнесът (пазари, продукти, конкуренция, мениджмънт)
K3 Моят капитал (лични финанси, свободно време, образование, извън бизнеса).

Абонирайте се за Капитал

Робски труд за процесорите

Робски труд за процесорите

886 прочитания

Съществуват вид проблеми, пред които прогресът се оказва почти безсилен, тъй като дори доверените му стражи - новите технологии - не могат да предложат разумни срокове за тяхното разрешаване. На пръв поглед задачи като разгадаването на смисъла, заложен в милиардите ДНК-молекули или старателно преслушване на необятните космически простори в търсене на извънземен живот, изглеждат като опит за преброяване на песъчинките в пустинята Гоби. Но само на пръв поглед. Оказва се, че проекти, които по принцип биха погълнали милиарди долари, могат да бъдат решени с минимални инвестиции, стига да успеят да спечелят подкрепата и доверието на... обикновените интернет-потребители. С помощта на интернет човечеството започва да обединява силите си, когато е нужно бързо решаване на глобални проблеми, изискващи огромна изчислителна мощ - толкова голяма, че всеки свободен мегахерц и неизползван килобайт са от полза. Всички са слушали легенди за свръхмощни компютърни системи, разработвани в секретни военни лаборатории. Каква е дозата истина в подобни разкази е въпрос, на който трудно може да се отговори. Но със сигурност понятието суперкомпютър започва да придобива реален смисъл едва когато започне да се говори за стотици машини, работещи паралелно за решаването на даден проблем. Подобни компютърни масиви има във всяко филмово студио, научна лаборатория или, най-общо казано, на всяко място, където се извършват титанични сметки. Тяхната поддръжка обаче е много скъпа и само добре финансирани проекти могат да си позволят подобен лукс.

Имаше време, когато да бъде оставен компютърът включен 24 часа в денонощието независимо дали се използва или не се смяташе за нещо странно и дори вредно за PC-то. Напоследък обаче вероятно в резултат от появата на все по-мощните операционни системи, които "обичат" да зареждат по няколко минути, доста от потребителите свикнаха да оставят машините си в бойна готовност с цел бърз достъп до работната среда. При тази ситуация няма да бъде лъжа, ако някой заяви, че свободното процесорно време не се използва рационално, тъй като в повечето случаи то попада в ръцете на напълно декоративни screensaver-програми. Подобно нехайно отношение към свободните процесорни цикли (които дори при по-натоварена работа понякога са над 97% от времето) вероятно скоро ще остане в миналото. Съвсем закономерно развитието на глобалната мрежа води до идеята за оползотворяване на свободното процесорно време от машините на обикновените потребители по механизъм, подобен на подхода при изграждане на суперкомпютър. Такива системи за разпределение на работата попадат в графата distributed computing (DC - разпределяне на изчисленията върху различни машини) и в последните 5 години придобиват все по-голяма популярност сред некомерсиалните научни проекти, в които може да се включи всеки.

Суперкомпютърните центрове

Все в някой момент прогресът в повечето сфери на човешкото познание започва да зависи от тежки изчисления, които могат да бъдат направени единствено с помощта на дълги часове работа на голям брой компютри. Стандартният начин за постигане на целта в такива случаи е прибягване до услугите на суперкомпютърни центрове, които всъщност представляват натъпкани на едно място голям брой процесори (на адрес www.llnl.gov/asci/ images може да се види за какво става дума). Но напоследък става популярен един по-различен подход. Идеята на Distributed Computing (DC) е колкото проста, толкова и хитра. Вместо да се правят инженерни акробатики с цел стиковане на максимален брой процесори в единица площ, стандартната мрежова връзка (или интернет) се използва като среда за комуникация между произволен брой компютри (обикновено наричани възли), които се координират по зададен алгоритъм, за да работят върху различни части от един и същ проблем. В една примерна DC-схема съществуват два вида възли: - 1) контролни - обработват и подреждат текущите резултати; 2) работни станции - получават от първите пакети с данни и след като извършат самите изчисления, връщат резултатите. Получава се постоянна комуникация между контролния център и крайните станции, които могат да бъдат произволно голям брой. По този начин PC-тата, включени в DC-система (независимо колко е мощно всяко от тях), формират своеобразен виртуален компютър с голяма сумарна производителност. Освен това не е нужно всички компютри да бъдат в една зала, нещо повече - могат да са пръснати по целия свят.

DC-проектите използват специфичнo мрежово приложение (програма), често наричано с жаргонното агент. Без него участието в проекта е невъзможно, тъй като именно то осъществява връзката с контролните сървъри. Инсталира се на всяко PC, което ще вземе участие в изчисленията. Агентът не пречи на работата на останалите приложения, тъй като е с възможно най-нисък приоритет и получава процесорно време само когато никой не го ползва. От друга страна, самият процесор е в състояние на бездействие (idle state) почти през цялото време, тъй като продуктите за текстообработка, браузърите, та дори най-новите игри натоварват предимно периферните устройства (видеокарта, мрежов контролер, твърди дискове), които в повечето случаи имат обособени процесорни чипове и поемат тежките сметки.

Кой би купувал свободното време

Distributed Computing програмите все още са в начален стадий от своето развитие - едва 1% от всички интернет-потребители даряват неизползваното процесорно време на PC-тата си. Повечето разработки в тази насока са все още почти експериментални, тъй като не е ясно доколко може да има материална изгода от тях (а рано или късно парите винаги започват да бъдат ключов фактор). Твърде вероятно е DC да се популяризира и да стане комерсиален - например в условията на конкуренция големите корпорации, нуждаещи се от изчислителната мощ на хиляди компютри, ще трябва да заплащат правото да ползват чуждото процесорно време. При всички положения това би било по-евтино, отколкото изграждането на огромни центрове със стотици PC-та на едно място. Фирмите, които произвеждат разпространените перманентно работещи софтуерни продукти като ICQ (програма за размяна на незабавни съобщения), Audio Galaxy (програми за размяна на музика в mp3-формат) и GetRight (даунлоуд мениджър - програма за интелигентно копиране на файлове от интернет, тоест с възможност за продължаване от мястото на прекъсването и за създаване на списък от файлове за даунлоуд), ще могат лесно да навлязат в подобен вид бизнес като посредници между крайните потребители и големите компании. Приложенията, които предлагат те, са тясно свързани с работата и присъствието в Internet, а разпространението им сред стотици хиляди потребители гарантира добри рекламни позиции. Всъщност първите предвиждания за развитието на търговията с процесорни цикли са направени още през 1968 г. от Айвън Съдърленд (понастоящем вицепрезидент нa Sun Microsystems). В тази връзка Sun обявиха началото на разработка на софтуерна база, която ще позволи лесното създаване на P2P (peer to peer - директна връзка между крайните потребители) и Distributed Computing приложения (www.sun.com /p2p).

Потенциалните проблеми със сигурността

Вероятно предстои да станем свидетели на злоупотреби и скандали с тази на пръв поглед доста благородна идея. Сигурността е ключов момент при DC, особено когато от мрежата се теглят не само сухи данни (т.е. неща, които не са изпълним код), а и различните модули, които приложението агент (програмата) използва за изчисленията. На практика един евентуален пробив на основния сървър значи пробив и за стотици хиляди PC-та, на които ще заработи неоторизирана програма. А щетите от подобно събитие биха могли да достигнат особено големи мащаби.

Военните отдели на водещите световни сили също биха имали интерес да получат достъп до свръхмощен виртуален компютър, при това безплатно. Въпреки че обикновено преди инсталирането на DC-агента фирмата, която го произвежда, изсипва няколко листа уверения за неговата безобидност, има хора, които са склонни да се съмняват доколко може да се разчита на подобни обещания. Тъй като приложението работи във фонов режим, човек никога не знае със стопроцентова гаранция какво всъщност се смята - някаква ДНК-структура или поведението на ядрен взрив в центъра на Москва.

От гледна точка на теориите за изкуствен интелект и невронни мрежи идеята за Distributed Computing мрежите изглежда доста интересна. Ако голям брой машини бъдат свързани помежду си в DC виртуална машина, те навярно ще могат да симулират поведението на човешкия мозък (който представлява сложна мрежа от невронни клетки, комуникиращи помежду си с електрически импулси). Всяко PC ще представлява своеобразен блок с невронни възли и ако това се случи, ще станем свидетели на раждането на изкуствен интелект в мрежата.

Съществуват вид проблеми, пред които прогресът се оказва почти безсилен, тъй като дори доверените му стражи - новите технологии - не могат да предложат разумни срокове за тяхното разрешаване. На пръв поглед задачи като разгадаването на смисъла, заложен в милиардите ДНК-молекули или старателно преслушване на необятните космически простори в търсене на извънземен живот, изглеждат като опит за преброяване на песъчинките в пустинята Гоби. Но само на пръв поглед. Оказва се, че проекти, които по принцип биха погълнали милиарди долари, могат да бъдат решени с минимални инвестиции, стига да успеят да спечелят подкрепата и доверието на... обикновените интернет-потребители. С помощта на интернет човечеството започва да обединява силите си, когато е нужно бързо решаване на глобални проблеми, изискващи огромна изчислителна мощ - толкова голяма, че всеки свободен мегахерц и неизползван килобайт са от полза. Всички са слушали легенди за свръхмощни компютърни системи, разработвани в секретни военни лаборатории. Каква е дозата истина в подобни разкази е въпрос, на който трудно може да се отговори. Но със сигурност понятието суперкомпютър започва да придобива реален смисъл едва когато започне да се говори за стотици машини, работещи паралелно за решаването на даден проблем. Подобни компютърни масиви има във всяко филмово студио, научна лаборатория или, най-общо казано, на всяко място, където се извършват титанични сметки. Тяхната поддръжка обаче е много скъпа и само добре финансирани проекти могат да си позволят подобен лукс.

Имаше време, когато да бъде оставен компютърът включен 24 часа в денонощието независимо дали се използва или не се смяташе за нещо странно и дори вредно за PC-то. Напоследък обаче вероятно в резултат от появата на все по-мощните операционни системи, които "обичат" да зареждат по няколко минути, доста от потребителите свикнаха да оставят машините си в бойна готовност с цел бърз достъп до работната среда. При тази ситуация няма да бъде лъжа, ако някой заяви, че свободното процесорно време не се използва рационално, тъй като в повечето случаи то попада в ръцете на напълно декоративни screensaver-програми. Подобно нехайно отношение към свободните процесорни цикли (които дори при по-натоварена работа понякога са над 97% от времето) вероятно скоро ще остане в миналото. Съвсем закономерно развитието на глобалната мрежа води до идеята за оползотворяване на свободното процесорно време от машините на обикновените потребители по механизъм, подобен на подхода при изграждане на суперкомпютър. Такива системи за разпределение на работата попадат в графата distributed computing (DC - разпределяне на изчисленията върху различни машини) и в последните 5 години придобиват все по-голяма популярност сред некомерсиалните научни проекти, в които може да се включи всеки.

Суперкомпютърните центрове

Все в някой момент прогресът в повечето сфери на човешкото познание започва да зависи от тежки изчисления, които могат да бъдат направени единствено с помощта на дълги часове работа на голям брой компютри. Стандартният начин за постигане на целта в такива случаи е прибягване до услугите на суперкомпютърни центрове, които всъщност представляват натъпкани на едно място голям брой процесори (на адрес www.llnl.gov/asci/ images може да се види за какво става дума). Но напоследък става популярен един по-различен подход.


Благодарим ви, че четете Капитал!

Вие използвате поверителен режим на интернет браузъра си. За да прочетете статията, трябва да влезете в профила си.
Влезте в профила си
Всеки потребител може да чете до 10 статии месечно без да има абонамент за Капитал.
Вижте абонаментните планове

0 коментара

Нов коментар

За да публикувате коментари,
трябва да сте регистриран потребител.


Вход

Още от Капитал

ФалITи

ФалITи

Аз, роботът...

Аз, роботът...

С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. OK