இந்த வாரம், சுவிட்சர்லாந்தின் ஜெனீவாவில் கல்வியாளர்கள், சட்ட நிபுணர்கள் மற்றும் கொள்கை ஆய்வாளர்கள் கூடிவிட்டு,
பற்றிய சர்வதேச உடன்பாடு உருவாக்குவது குறித்து விவாதித்து வருகின்றனர்.
AI தொழில்நுட்பம் துல்லியமான இலக்குகளைத் தேர்வு செய்ய உதவி செய்து பொதுமக்கள் உயிரிழப்பை குறைக்கலாம் என்ற கருத்து சிலரால் முன்வைக்கப்படுகிறது. ஆனால் உக்ரைன் மற்றும் காசா போன்ற சமீபத்திய போர்களில் AI பயன்படுத்தப்பட்டிருந்தாலும், பொதுமக்கள் உயிரிழப்பு குறைந்ததாக எந்த உறுதியான ஆதாரமும் இல்லை என்று ஆய்வாளர்கள் கூறுகின்றனர்.
AI பயன்படுத்தப்படும் முக்கியமான துறைகள்:
ஆனால் மனித மேற்பார்வை இல்லாமல் முழுமையாக தன்னாட்சி ஆயுதங்களை இயக்குவது மிகவும் சர்ச்சைக்குரியதாக உள்ளது. AI இயங்கும் ட்ரோன்கள் எதிரி போராளிகளை தானாக அடையாளம் கண்டு தாக்கும் திறன் theoretically இருந்தாலும், தற்போதைய தொழில்நுட்பம் நம்பகமானதல்ல என்றும் சர்வதேச மனிதாபிமான சட்டங்களுடன் ஒத்துப்போகாது என்றும் நிபுணர்கள் கூறுகின்றனர்.
இந்த விவகாரம் அமெரிக்க பாதுகாப்புத் துறைக்கும் Anthropic என்ற AI நிறுவனத்திற்கும் இடையே முரண்பாட்டை உருவாக்கியது.
அமெரிக்க பாதுகாப்புத் துறை AI-யை "எந்த சட்டபூர்வ பயன்பாட்டிற்கும்" கட்டுப்பாடின்றி பயன்படுத்த அனுமதிக்க வேண்டும் என்று வலியுறுத்தியது. ஆனால் Anthropic நிறுவனம் தனது Claude AI தொழில்நுட்பத்தை:
பயன்படுத்த அனுமதிக்க மறுத்தது.
இதன் பின்னர், அமெரிக்க ஜனாதிபதி டொனால்ட் டிரம்ப் அந்த நிறுவனத்துடன் உள்ள ஒத்துழைப்பை நிறுத்த உத்தரவிட்டார். அதன் பின்னர் அமெரிக்க அரசு OpenAI நிறுவனத்துடன் புதிய ஒப்பந்தத்தில் கையெழுத்திட்டுள்ளது.
அமெரிக்க இராணுவம் தற்போது AI-யை பல துறைகளில் பயன்படுத்துகிறது:
உதாரணமாக Project Maven என்ற AI அமைப்பு படங்களை பகுப்பாய்வு செய்து இலக்குகளை அடையாளம் காண உதவுகிறது.
ஆனால் AI அடிப்படையிலான முடிவெடுப்பில்
சார்பு (bias)
வெளிப்படைத்தன்மை இல்லாமை
போன்ற பிரச்சினைகள் உள்ளதால், மனித முடிவெடுப்பை முழுமையாக AI-யால் மாற்றுவது போர் மோதல்களை மேலும் அதிகரிக்கக் கூடும் என்ற கவலை உள்ளது.
இதனால் பல ஆய்வாளர்கள் முழுமையாக தன்னாட்சி கொண்ட கொடிய ஆயுத அமைப்புகளை சர்வதேச அளவில் தடை செய்ய வேண்டும் என்று வலியுறுத்துகின்றனர்.
போரில் AI பயன்பாட்டை கட்டுப்படுத்தும் சர்வதேச ஒப்பந்தத்தை உருவாக்க பல முயற்சிகள் நடந்து வருகின்றன. ஆனால் அமெரிக்கா, இஸ்ரேல், சீனா போன்ற முக்கிய நாடுகள் அதிக கட்டுப்பாடுகளை ஏற்க தயங்குவதால் இந்த முயற்சிகள் முன்னேறவில்லை.
மேலும், AI தற்போது பல கணினி அமைப்புகளில் ஒருங்கிணைந்த தொழில்நுட்பமாக இருப்பதால், அதை சட்டரீதியாக வரையறுத்து கட்டுப்படுத்துவது மிகவும் சிக்கலானதாக உள்ளது.
இதனால், போரில் AI பயன்பாட்டை ஒழுங்குபடுத்தும் சர்வதேச உடன்பாடு விரைவில் உருவாகும் வாய்ப்பு குறைவாக இருப்பதாக நிபுணர்கள் கூறுகின்றனர்.
இந்நிலையில், சில AI நிறுவனங்களின் ஊழியர்கள் கூட தங்கள் நிறுவனங்கள்
போன்ற பயன்பாடுகளுக்காக AI தொழில்நுட்பத்தை வழங்கக் கூடாது என்று கோரி மனு தாக்கல் செய்துள்ளனர்.