Събирането и анализирането на големите обеми от данни, които всичко около нас ще започне да генерира с навлизането на т.нар. Интернет на нещата (Internet of Things), ще помогне на бизнеса да прогнозира много по-лесно и точно бъдещите тенденции в технологичния сектор и в други индустрии. Това заяви по време на CEEDS’15 by Webit Руупак Верма, регионален директор Информационни технологии на Ford, отговарящ за Европа, Близкия изток и Африка.
„Всичко, което хората правят, генерира данни. Всяко свързано с мрежата превозно средство ще започне да генерира тонове информация, с която трябва да се справим“, коментира експертът.
По думите му годишно се продават между 80 и 90 млн. нови автомобила по цял свят, което предполага обемите от данни да стават все по-големи. В това той вижда големи предизвикателства пред бизнеса, който ще трябва да се справя със съхранението и анализа на цялата тази информация.
Според Верма компаниите по света трябва да са наясно, че когато става дума за големи обеми от данни, ще трябва да се върви по ясен алгоритъм, който включва три ключови стъпки.
На първо място е събирането на информацията от всички свързани устройства, независимо дали става дума за коли или за уредите, използвани в едно домакинство. На второ е анализът на данните, който ще помогне за прогнозирането на бъдещето. Третата стъпка е оптимизиране на процесите, така че бизнесът да предоставя възможно най-адекватни услуги и продукти на своите клиенти.
„Ако не организираме големите обеми от данни, трудно ще реализираме някакви ползи“, категоричен е Верма. Според него едно от големите предизвикателства пред индустриите в момента е това как да се справят със структурирането на данните.
Пред бизнеса стоят и въпросите относно това доколко те са готови да работят с такива данни от технологична гледна точка, от законова гледна точка, както и по отношение компетентността на човешките ресурси.
Освен това фирмите не бива да спират да мислят как да свържат потребителите с мрежата, но да го направят максимално сигурно, осигурявайки защитена среда.


Оперираха Здравко от "Ритон"
Изтеглиха жребия за световното по футбол през 2026 г. Вижте всички групи
Спасители във Варна извадиха немска овчарка от 25-метров кладенец
Проблемите с водата в Аврен продължават
През 2024 г. България e сред най-засегнатите държави в ЕС от горски пожари
Защо противоборството между Китай и Япония расте
Парвулеску за целите на срещата Путин-Моди
Какво представлява T-Dome системата на Тайван и може ли да парира китайски атаки
Панета: Трябва да се види подготовката за операцията на 2 септември
Панета: Ще се изискват големи усилия от Конгреса по случая от 2 септември
Как влияят на мощността диаметърът на цилиндрите и ходът на буталата
Бизнесмен организира погребение за късметлийската си кола
Уникална Toyota Mega Cruiser от 1996 година отива на търг
Tesla намали цената на Model 3 в Европа
Рембранд, Вермеер или Ван Гог – изберете сами
Вдовецът на Тина Търнър си има нова приятелка, влюбен е в 60-годишна американка
Защо Джордж Клуни се ядосал на Брад Пит в далечната 1991 г.?
Кейт Мидълтън впечатли с най-голямата си тиара досега
5 храни, които „събуждат“ женските хормони
преди 10 години Някой си мечтае за дяволът на Ферма :)Като цяло е прав човека, но въпроса не е в големите обеми а в начина и алгоритмите за тяхната обработка. Иначе.. някога 1G беше нереално голям обем данни. За да стане нещо, трябват експертни системи, трябва data mining, трябват невронни мрежи, а там сме много боси все още. отговор Сигнализирай за неуместен коментар