A mesterséges intelligenciával működő chatbotok mára a fejlesztői csapatok teljes jogú tagjaivá váltak, köszönhetően az általuk kínált jelentős termelékenységnövekedésnek. Azonban van velük egy – nem is kicsi – probléma, amelynek hosszú távú negatív hatásai lehetnek.
Óriási tudás áll a mesterségesintelligencia-alapú chatbotok mögött, nem véletlen, hogy egyre több szakma képviselői fordulnak segítségért hozzá. A számítógépes programok fejlesztői is gyakran iratnak már chatbotokkal programrészleteket és teszteseteket is. Látszólag remek az együttműködés, azonban – hívja fel a figyelmet az Infoworld – akad itt egy elég súlyos probléma.
Induljunk ki abból, hogy a generatív MI-chatbotok tudása nem öröktől fogva adott, azaz nekik is meg kellett tanulniuk kódolni. És hogy ezt miként teszik? Nyílt forráskódú szoftverek milliárdjainak olvasásával. Ezek a szoftverek pedig tele vannak hibákkal, sőt hackerek által beillesztett rosszindulatú programokkal. És akkor vegyük még hozzá ehhez, hogy évente jóval több, mint egymilliárd nyílt forráskódú program érkezik a különböző adattárakba, ami rengeteg lehetőséget jelent veszélyes kódok megosztására. Ha pedig ilyen kódokkal tanítanak egy MI-modellt, máris megtörténik a baj, ugyanis a modell által generált bármilyen kódra hatással van, az, amit korábban tanult.
Egy gép többet mond ezer sornál: 15 hasznos app programozáshoz, csinálja akár hobbiból, akár munkaként
A mesterséges intelligencián alapuló eszközök azoknak is segíthetnek belépni a programozás világába, akik nem profi szinten űzik, vagy csak most kezdtek el vele foglalkozni - akár kényszerűségből, akár hobbiból.
Hogy mi lehet a megoldás? Nos, a generatív mesterséges intelligencia chatbotja által írt és a fejlesztők által használt kódot alaposan ellenőrizni kell. Nem ritka, hogy a fejlesztők akkor kérnek segítséget egy chatbottól, amikor nem rendelkeznek elegendő szakértelemmel ahhoz, hogy maguk írják meg a kódot. Ez pedig sajnos azt is jelenti, hogy hiányzik a szakértelem ahhoz is, hogy megértsék, van-e az előállított kódban szándékosan elrejtett hátsó ajtó vagy rosszindulatú program.
Az Infoworld azt tanácsolja a cégeknek, hogy vizsgálják meg alaposan a generatív MI által írt kódot. Használjanak statikus viselkedési vizsgálatokat és szoftverösszetétel-elemzést (SCA) annak megállapítására, hogy vannak-e tervezési hibák az előállított szoftverben vagy hajt-e végre rosszindulatú ténykedéseket. S van még egy megfontolandó javaslat: nem jó ötlet a magas kockázatú kódot előállító generatív mesterséges intelligenciára bízni, hogy megírja a kód kockázatát feltáró teszteseteket. Ez olyan, mintha megkérnének egy rókát, hogy ellenőrizze, vajon vannak-e rókák a tyúkólban.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.