Dataset Viewer
Auto-converted to Parquet Duplicate
query
stringlengths
8
30k
doc
stringlengths
20
40.2k
sphinxsearch-0.9 kullanılırken mediawiki-1.32.0 üzerinde 2019/01/14 12:04:51 tarihinde şu hata alındı: [error] 21549#21549: *3558 FastCGI sent in stderr: "PHP message: PHP Fatal error: Class SphinxMWSearch contains 2 abstract methods and must therefore be declared abstract or implement the remaining methods (SearchDatabase::doSearchTextInDB, SearchDatabase::doSearchTitleInDB) in /var/opt/www/extensions/SphinxSearch/SphinxMWSearch.php on line 15" while reading response header from upstream, client: 192.168.122.1, server: wiki.yuyizhi.org, request: "GET /index.php?title=Special:%E6%90%9C%E7%B4%A2&search=sphinx HTTP/1.0", upstream: "fastcgi://unix:/var/run/php-fpm/php5-fpm.sock:", host: "wiki.yuyizhi.org" FastCGI sent in stderr: "PHP message: PHP Fatal error: Class SphinxMWSearch contains 2 abstract methods and must therefore be declared abstract or implement the remaining methods (SearchDatabase::doSearchTextInDB, SearchDatabase::doSearchTitleInDB) in /var/opt/www/extensions/SphinxSearch/SphinxMWSearch.php on line 15", client: 192.168.122.1, server: wiki.abc.com, request: "GET /api.php?action=opensearch&search=bai&namespace=0 HTTP/1.0", host: "wiki.abc.com"
SearchDatabase sınıfında, SphinxSearch'in extend ettiği REL1_31'den REL1_32'ye bir değişiklik yapıldı. Artık doSearchTextInDB ve doSearchTitleInDB metodlarını tanımlamanız gerekiyor. Bkz. REL1_31 https://doc.wikimedia.org/mediawiki-core/REL1_31/php/classSearchDatabase.html ve REL1_32 https://doc.wikimedia.org/mediawiki-core/REL1_32/php/classSearchDatabase.html Bu konu, yama notlarında deprecation başlığı altında Search kelimesiyle arama yaparsanız bir nebze bahsediliyor (ancak bu aslında bir Geriye Dönük Uyumluluk/kesinti (Backwards compatibility break)) https://www.mediawiki.org/wiki/Release_notes/1.32#Compatibility: SearchEngine::{searchText,searchTitle,searchArchiveTitle} fonksiyonlarının extend edilen sınıflarda override edilmesi artık önerilmiyor. Bunun yerine ilgili doSearch* metodlarını extend edin. Eğer benim gibiyseniz ve eklentiyi bizzat düzeltmek konusunda rahat değilseniz, eklentinin REL1_32 ile çalışacak şekilde güncellenmesini extension katkıcılarından birinin yapmasını beklemeniz gerekecek. O zamana kadar, eklentiyi kullanmak istiyorsanız REL1_31 sürümünde kalmanız gerekir. A: SphinxMWSearch sınıfı tanımının altına SphinxMWSearch.php dosyasına şu iki boş fonksiyonu eklemek iş görüyor gibi. Şikayet etmeyi bırakıyor ve – gördüğüm kadarıyla – arama fonksiyonu gayet iyi çalışıyor. function doSearchTextInDB($term) { } function doSearchTitleInDB($term) { } Umarım bu eklentinin geliştiricileri yakın zamanda düzgün bir çözüm üretir.
ORA-00928: missing SELECT keyword: update ile with kullanırken ORA-00928: missing SELECT keyword hatası alıyorum. Bu hata alınıyor. with wr_double as (select...) update work_request r set r.name = r.name || '_old' where exists (select 1 from wr_double wd where wd.name = r.name and wd.wr_id = r.id) Ama bu sorunsuz çalışıyor with wr_double as (select...) select * from work_request r where exists (select 1 from wr_double wd where wd.name = r.name and wd.wr_id = r.id) Ayrıca, with içindeki alt sorgumu update'in gövdesine yerleştirirsem de sorunsuz çalışıyor. update work_request r set r.name = r.name || '_old' where exists (select 1 from (select wr.name, wr.id as wr_id, dup_wr.count, d.id as d_id, d.create_date from (select...) wd where wd.name = r.name and wd.wr_id = r.id) Update ile "with" keyword'ünü bu şekilde kullanamıyor muyum?
CTE, SELECT ifadesinin bir parçası olduğu için aşağıdaki şekilde yazmalısınız, UPDATE ifadesinin değil. update work_request set name = name || '_old' where exists ( with wr_double as (select...) select 1 from wr_double wd wd.name = work_request.name and wd.wr_id = work_request.id );
UITableView'da Ağaç Yapısı Uygulama Bir UITableView içinde aşağıdaki gibi bir ağaç yapısı uygulamak istiyorum: Item-1 subItem-1 subItem-2 Item-2 Item-3 subItem-1 subItem-2 Fakat bunun için custom cells kullanmak istemiyorum. Bu konuda çok fazla Google'da arama yaptım fakat sadece bir tane kaynak buldum ve o da custom cells kullanmam gerektiğini söylüyordu. Eğer bu konuda fikri olan varsa, lütfen benimle paylaşabilir mi? Şimdiden teşekkürler.
Bir table view aslında hiyerarşik görünümler göstermek için tasarlanmamıştır. Burada yapılması gereken şey, bir sonraki hiyerarşi seviyesine ulaşmak için drill down yapmak (yeni bir view controller’ı stack’e push etmek) olacaktır. Ancak, eğer hiyerarşiniz tahmin ettiğiniz kadar sığ ise, ögelerinizi header olarak ve alt ögeleri satırlar (row) olarak gösterebilirsiniz. Eğer özel bir view oluşturmak istemiyorsanız (neden istemiyorsunuz ki?), üst seviye ögeleriniz için yalnızca metin göstermekle sınırlı kalırsınız.
Farklı assembly’lerde zaten haritalanmış olan entity’lerin mapping’ini nasıl değiştirebilirim? EF’de entity’ler için özel mapping yapmak istiyorum. Örneğin, bir entity’im var: public class User { public int UserId { get;set;} public string Firstname { get;set;} public string ColA {get; set;} public string ColB {get; set;} } Bu entity için mapping zaten EF’de OnModelCreating() içinde eklenmiş durumda ve genel kullanımda. Diyelim ki, 2 farklı assembly’de (AssemblyA.dll ve AssemblyB.dll diyelim) iki fonksiyonum var ve bu assembly’ler MEF framework ile dinamik olarak yükleniyor. AssemblyA.dll sadece ColA’ya ihtiyaç duyuyor ve ColB’yi kaldırması gerekiyor, AssemblyB.dll’de ise tam tersi gereksinim var. Yani bu iki servis için iki yeni mapping class’ı tanımlamam ve bunların dinamik olarak çalışıp ilgili assembly’e göre kolonu kaldırması gerekiyor (AssemblyA ColB’yi Ignore edecek, AssemblyB ColA’yı Ignore edecek). Mevcut EF kodunu değiştirmek istemiyorum çünkü zaten production’da. Her bir assembly içindeki değişiklikler kendi içinde olmalı. EF bunu yapmamıza izin veriyor mu? Ya da bana bir yol gösterebilir misiniz?
Ne yapmaya çalıştığınız tam olarak net değil fakat: * *Her EF context’i, her tabloyu ve entity’yi sadece bir kez map’leyebilir. *Bu da şu anlama gelir: AssemblyA için konfigürasyonu yüklediyseniz, AssemblyB için konfigürasyonu kullanamazsınız. *Ayrıca, EF’de mapping’in genellikle OnModelCreating içinde oluşturulduğu varsayılan yöntemi de kullanamazsınız çünkü bu metod genellikle uygulamanın tüm ömrü boyunca sadece bir kez çağrılır. *İsterseniz manuel olarak iki DbModel instance’ı oluşturup, bunları DbCompiledModel’e derleyebilir ve DbContext constructor’ına geçebilirsiniz — bu şekilde AssemblyA ve AssemblyB için iki farklı mapping konfigürasyonuna sahip olabilirsiniz ancak asla ikisini aynı context instance’ında birlikte kullanamazsınız. *EF migrations büyük ihtimalle çalışmayacaktır çünkü onlar veritabanı başına tek bir mapping seti bekler. Her neyse, eğer MEF ve modüler bir mimari kullanıyorsanız, her entity ya çekirdek (core) olmalı (herhangi bir modüle özel olmamalı ve modüller arasında paylaşılarak kullanılmalı) ya da modül entity’si olmalı (başka bir modül veya core tarafından kullanılmamalı).
Golang'da rastgele veri tipleri döndürmek Basit bir golang rutinim var, database/sql kullanarak Postgres DB'me bir bağlantı açıyor ve bazı işlemler yapıyor ```go package main import ( "fmt" "database/sql" _ "github.com/lib/pq" "log" ) const ( DB_USER = "my_user" DB_NAME = "my_postgres_db" ) // The return type here is wrong - what should it be? func establish_db_connection() sql.DB { dbinfo := fmt.Sprintf( "user=%s password=%s dbname=%s sslmode=disable", DB_USER, nil, DB_NAME) db, err := sql.Open("postgres", dbinfo) if err != nil { log.Fatal(err) } return db } func main() { // Get a connection to the DB db := establish_db_connection() // Do other stuff // ... // ... } ``` establish_db_connection fonksiyonunun imzasını yazmakta zorlanıyorum - ```go func establish_db_connection() sql.DB { ``` Dokümantasyonda, bir sql.DB örneği döndürdüğü belirtiliyor. Öyleyse return type bu olmamalı mı? Golang'da henüz yeniyim, çoğu şeyi ilk kez öğreniyorum. Teşekkürler!
Open fonksiyonu bir *sql.DB, yani bir sql.DB pointer'ı döndürür. Fonksiyon imzasını ayrıca bir *sql.DB döndürecek şekilde değiştirin: func establish_db_connection() *sql.DB {
İlk View Controller Başlatılmadan Kod Çalıştırmak (Storyboard Tabanlı Uygulama) Uygulamamın, her açılışta, ilk view controller görüntülenmeden önce bazı temizlik işlemleri (yerelde saklanan eski verilerin silinmesi gibi) yapması gerekiyor. Bunun sebebi, ilk view controller’ın başlatılırken mevcut verileri yükleyip bir table view içerisinde göstermesi. Çeşitli break point’ler koyarak şunu gördüm: İlk view controller’ın initializer’ı (init?(coder aDecoder: NSCoder)), application(_:didFinishLaunchingWithOptions) metodundan – hatta tam olarak application(_:**will**FinishLaunchingWithOptions)’dan – önce çalıştırılıyor. Temizlik kodunu, view controller’ın initializer’ının en üstüne koyabilirim ama temizlik işini herhangi bir ekrandan bağımsız yapmak istiyorum. Çünkü ileride o view controller ilk ekran olmayabilir. App delegate’in init() metodunu override edip temizlik kodunu oraya yazmak iş görüyor, fakat... Soru: Bundan daha iyi / daha şık bir yöntem yok mu? Not: İlgili metodların çalışma sırası referans olması açısından şöyle: * *AppDelegate.init() *ViewController.init() *AppDelegate.application(_:willFinishLaunchingWithOptions:) *AppDelegate.application(_:didFinishLaunchingWithOptions:) *ViewController.viewDidLoad() Açıklama: Temizlik işlemi uzun sürmüyor ve asenkron çalışmasına da gerek yok; tam tersine, ilk view controller başlatılmadan önce tamamen bitsin isterim (Uygulamanın çok uzun sürerse sistem tarafından öldürüleceğinin farkındayım. Ancak, sadece birkaç yerel dosya silinecek, sorun değil.). Bu soruyu sormamın nedeni, storyboard öncesi dönemlerde uygulama başlatma kodunun şöyle görünmesiydi: - (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions { self.window = [[UIWindow alloc] initWithFrame:[[UIScreen mainScreen] bounds]]; // Override point for customization after application launch. self.window.backgroundColor = [UIColor whiteColor]; // INITIAL VIEW CONTROLLER BURADA OLUŞTURULUYORDU // (DAHA ÖNCE DEĞİL): MyViewController* controller = [[MyViewController alloc] init]; self.window.rootViewController = controller; [self.window makeKeyAndVisible]; return YES; } ...fakat artık, ana storyboard yüklemesi sahne arkasında gerçekleştiği için, view controller herhangi bir app delegate method’undan önce başlatılıyor. İlk view controller’a özel kod eklenmesini gerektiren bir çözüm istemiyorum.
Daha zarif bir yol var mı emin değilim; fakat kesinlikle başka yollar da mevcut... Benim tercihim, ilk view controller’ım tamamlanana kadar hiç oluşturulmamış olsun. Bu bir sorun değil. Tek yapmanız gereken, Info.plist dosyasından UIMainStoryboardFile veya NSMainNibFile anahtarını silmek. Bu anahtar, UIApplicationMain’e hangi arayüzün yükleneceğini söyler. Ardından, AppDelegate içinde “temizleme işleminizi” çalıştırırsınız ve işiniz bittiğinde, zaten örnekte gösterdiğiniz gibi, arayüzü kendiniz başlatırsınız. Alternatif bir çözüm ise UIApplicationMain’in bir alt sınıfını (subclass) oluşturup, arayüz yüklenmeden önce temizliği burada yapmak olabilir. Aşağıda App Life Cycle’a bakabilirsiniz: A: * *Uygulamanızın splash görselini içeren bir UIImageView’i, ilk ViewController’a ekleyebilirsiniz. *viewDidLoad() içinde... imageview.hidden özelliğini False yapın... temizleme işleminizi gerçekleştirin ve işlem bittiğinde imageview.hidden özelliğini TRUE yapın. Bu sayede kullanıcı, arka planda ne yaptığınızın farkında olmaz; bu yöntem birçok bilinen uygulama tarafından kullanılır. A: Ben çok benzer bir durum yaşadım, didFinishLaunchingNotification’dan sonra hazır olan kodu çalıştırmam gerekiyordu. State restoration ile de uyumlu olan şu deseni buldum: var finishInitToken: Any? required init?(coder: NSCoder) { super.init(coder: coder) finishInitToken = NotificationCenter.default.addObserver(forName: UIApplication.didFinishLaunchingNotification, object: nil, queue: .main) { [weak self] (_) in self?.finishInitToken = nil self?.finishInit() } } func finishInit() { ... } override func decodeRestorableState(with coder: NSCoder) { // Bu çok önemli, böylece "temiz başlangıç" için amaçlanan finishInit() // çağrılmaz if let t = finishInitToken { NotificationCenter.default.removeObserver(t) } finishInitToken = nil } alt olarak willFinishLaunchingWithOptions için bir bildirim (notif) oluşturabilirsiniz A: Alternatif olarak, her şeyden önce bir kod parçasının çalışmasını istiyorsanız, AppDelegate’in init() fonksiyonunu şu şekilde override edebilirsiniz: @main class AppDelegate: UIResponder, UIApplicationDelegate { override init() { DoSomethingBeforeEverthing() // Kodunuzu buraya yazın super.init() } ... } Dikkat edilmesi gereken birkaç nokta: * *Burada, yani app delegate başlatılmadan önce, neyin izin verildiğine/nelerin yapılabileceğine bakmak isteyebilirsiniz. *Ayrıca daha temiz bir yol olarak, AppDelegate’i subclass’layıp, init’ten çağırdığınız yeni bir delegate methodu ekleyebilirsiniz. Örneğin applicationWillInitialize ve gerekiyorsa applicationDidInitialize.
Method was expected to be of type virtual AWS Mobile Hub örnek projemden AWSMobileClient.defaultMobileClient() fonksiyonunu test projemde aşağıdaki kodla başlatmaya çalıştım: if (AWSMobileClient.defaultMobileClient() == null) { Log.e("MainActivity", "Initializing AWS Mobile Client..."); final ClientConfiguration clientConfiguration = new ClientConfiguration(); clientConfiguration.setUserAgent(AWSConfiguration.AWS_MOBILEHUB_USER_AGENT); final IdentityManager identityManager = new IdentityManager(getApplicationContext(), clientConfiguration); final AWSMobileClient awsClient = new AWSMobileClient.Builder(getApplicationContext()) .withCognitoRegion(AWSConfiguration.AMAZON_COGNITO_REGION) .withCognitoIdentityPoolID(AWSConfiguration.AMAZON_COGNITO_IDENTITY_POOL_ID) .withIdentityManager(identityManager) .withClientConfiguration(clientConfiguration) .build(); AWSMobileClient.setDefaultMobileClient(awsClient); } Uygulamayı cihazımda açtığımda, Android Studio'da şu hata kaydını aldım: 09-21 13:01:34.596 28886-28886/com.intap.snspushtest E/AndroidRuntime: FATAL EXCEPTION: main Process: com.intap.snspushtest, PID: 28886 java.lang.IncompatibleClassChangeError: The method 'java.io.File android.support.v4.content.ContextCompat.getNoBackupFilesDir(android.content.Context)' was expected to be of type virtual but instead was found to be of type direct (declaration of 'com.google.android.gms.iid.zzd' appears in /data/app/com.intap.snspushtest-1/base.apk) at com.google.android.gms.iid.zzd.zzeC(Unknown Source) at com.google.android.gms.iid.zzd.<init>(Unknown Source) at com.google.android.gms.iid.zzd.<init>(Unknown Source) at com.google.android.gms.iid.InstanceID.zza(Unknown Source) at com.google.android.gms.iid.InstanceID.getInstance(Unknown Source) at com.amazonaws.mobile.push.GCMTokenHelper.<init>(GCMTokenHelper.java:44) at com.amazonaws.mobile.AWSMobileClient.<init>(AWSMobileClient.java:121) at com.amazonaws.mobile.AWSMobileClient.<init>(AWSMobileClient.java:24) at com.amazonaws.mobile.AWSMobileClient$Builder.build(AWSMobileClient.java:101) at com.intap.snspushtest.MainActivity.onCreate(MainActivity.java:43) at android.app.Activity.performCreate(Activity.java:6876) at android.app.Instrumentation.callActivityOnCreate(Instrumentation.java:1135) at android.app.ActivityThread.performLaunchActivity(ActivityThread.java:3206) at android.app.ActivityThread.handleLaunchActivity(ActivityThread.java:3349) at android.app.ActivityThread.access$1100(ActivityThread.java:221) at android.app.ActivityThread$H.handleMessage(ActivityThread.java:1794) at android.os.Handler.dispatchMessage(Handler.java:102) at android.os.Looper.loop(Looper.java:158) at android.app.ActivityThread.main(ActivityThread.java:7224) at java.lang.reflect.Method.invoke(Native Method) at com.android.internal.os.ZygoteInit$MethodAndArgsCaller.run(ZygoteInit.java:1230) at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:1120) Satırlar aşağıdaki şekildedir. AWSMobileClient.java:121 this.gcmTokenHelper = new GCMTokenHelper(context, AWSConfiguration.GOOGLE_CLOUD_MESSAGING_SENDER_ID); AWSMobileClient.java:24 public class AWSMobileClient { AWSMobileClient.java:101 return new AWSMobileClient(applicationContext, cognitoIdentityPoolID, cognitoRegion, identityManager, clientConfiguration); MainActivity.java:43 final AWSMobileClient awsClient = new AWSMobileClient.Builder(getApplicationContext()) .withCognitoRegion(AWSConfiguration.AMAZON_COGNITO_REGION) .withCognitoIdentityPoolID(AWSConfiguration.AMAZON_COGNITO_IDENTITY_POOL_ID) .withIdentityManager(identityManager) .withClientConfiguration(clientConfiguration) .build(); Gerçekten karşı karşıya olduğum sorunu anlamıyorum, bu yüzden yardımcı olabilir misiniz?
Google Play Services kütüphanesi versiyonumu 9.0.0'dan 9.0.1'e değiştirdim ve bu sorunu çözdü.
PowerShell kullanarak listedeki belirli bir karakterden sonrasını kaldırmak Bana tam etki alanı adıyla birlikte gelen bir sunucu listesini başka bir yerde kullanabilmek için temizlemeye (yeniden biçimlendirmeye) çalışıyorum. Sunucu listesi şu şekilde geliyor: servername.domain.com. Listeyi import-csv ile bir değişkene okuyorum ve format-table komutunu kullanarak ihtiyacım olmayan diğer sütunları kaldırıyorum. Sonuçta kullandığım komut ise şu şekilde: $l=Import-Csv .\filename.csv | Format-Table TARGET TARGET, sunucu adlarını içeren sütunun adı. Sunucu adının etki alanı kısmını kaldırmak için aşağıdaki komutu kullandığımda ise, sonuç olarak her satırda "Microsoft" değeri tekrarlanıyor. Sunucu adlarının değişkene doğru şekilde aktarıldığından emin oldum. $l -replace '(.+?)\..+','$1' Bu komut, değişkende yalnızca bir sunucu adı varsa çalışıyor. Daha önce sunucu adlarını bu şekilde kırpabildiğimi hatırlıyorum ama sanırım o gün bir anlık bir dalgınlık yaşadım ve kullandığım komutu not etmedim. :( Herhangi bir öneriniz var mı? Nihai hedefim bu komutları zamanlanmış işlerde kullanılacak bir betiğe dahil etmek.
Burada birkaç hususa dikkat etmek gerekiyor. Öncelikle, matt’in de belirttiği gibi, nesneler formatlama komutları tarafından yok edilir. Yalnızca nesnelerin özelliklerinin düzgün bir görünümünü elde etmek istiyorsanız bu komutları kullanın, aksi takdirde select kullanın. Bunu gereksiz yere yapıyor olabileceğinizi düşünüyorum: İleride ihtiyaç duyabileceğiniz bilgiyi neden atayasınız? Yazdığım bir script ya da fonksiyonu biraz genişletirsem yeni ve faydalı bir şeyler yapabileceğimi fark ettiğim anların sayısını unuttum. Bir .csv dosyası içe aktardığınızda, sütun başlıklarının özellik adlarıyla nesneler oluşturursunuz, böylece sonradan o özelliğe ismiyle başvurabilirsiniz. replace komutuyla yaşadığınız sorun, $l içinde birden fazla nesne olduğunda, nesneler üzerinde döngü yapmanız gerektiğiyle ilgili; Foreach-Object bu işi yapacaktır. Yani, servers.csv dosyası için: TARGET,VALUE2,VALUE3 server1.domain.com,2,3 server2.domain.com,2,3 server3.domain.com,2,3 server4.domain.com,2,3 server5.domain.com,2,3 İçe aktardığımızda düzgün formatlanmış bir nesne dizisi (tablo halinde güzelce gösterilmiş olarak) elde ederiz: Import-Csv .\servers.csv | ft -a TARGET VALUE2 VALUE3 ------ ------ ------ server1.domain.com 2 3 server2.domain.com 2 3 server3.domain.com 2 3 server4.domain.com 2 3 server5.domain.com 2 3 Foreach-Object (% bunun kısaltmasıdır) ile her nesnenin (dosyadaki her satıra denk gelir) 'TARGET' özelliğini alıp, FQDN’deki noktalarla split edip, split’in ilk ögesini alabiliriz: Import-Csv .\servers.csv | % {$_.TARGET.Split('.')[0]} server1 server2 server3 server4 server5 Dilerseniz önce içeriği bir değişkene aktarabilir, sonra bu değişkeni döngüye gönderebilirsiniz. Sevgiler A: DAİMA: Veri manipülasyonu yapacaksanız | Format-Table TARGET ifadesini kaldırın çünkü nesneleri yok eder. Bir yaklaşım olarak TARGET sütununun string dizisini çıkarıp bunu işleyebilirsiniz. $l=Import-Csv .\filename.csv | Select -Expand TARGET Uygun şekilde yapılandırılmış bir CSV’niz olduğunu varsayarsak, kodunuz basitleştirilebilir. Ayrıca regex kullanımı gerekmiyor, şöyle de yapabilirsiniz: $l=Import-Csv .\filename.csv | Select -Expand TARGET | ForEach-Object{$_ -Split "." | Select -First 1} Bu noktada $l yalnızca sunucu isimlerini içermeli. Regex’iniz yanlış değil, ancak kullanabilmek için onu geliştirmeniz ya da -split’te kullandığım gibi bir döngüye yerleştirmeniz gerekir. $l=Import-Csv .\filename.csv | Select -Expand TARGET $l | ForEach-Object{$_ -replace '(.+?)\..+','$1'}
Ajax'ın render işlemini beklemek (JSF) PRIMEFACES ile bir dialog kullanıyorum ve dialog kapatıldığında içeriğin yeniden render edilmesi için onCloseUpdate niteliğini kullanıyorum. Sorun şu ki, dialog'u kapattığımda ve (hızlıca) tekrar açmak için tıkladığımda, onCloseUpdate henüz dialog içeriğini yeniden render etmeyi bitirmemiş oluyor ve eski içerik yarım saniye/bir saniye kadar görüntüleniyor. Dialog'u görünür yapan command link şöyle: <h:commandLink id="area1" onclick="dlg.show()"> ... </h:commandLink> , ve dialog ise şöyle: <ppctu:dialog onCloseUpdate="... dialog içeriğinden tüm bileşen id'leri buraya geliyor ..." modal="true" widgetVar="dlg"> onCloseUpdate render işlemi tamamlanana kadar beklemenin bir yolu var mı? Şimdiden teşekkürler
Senkron ajax çağrısı kullanın. Senkron AJAX (Aslında SJAX -- Synchronous Javascript and XML) modaldir, yani javascript programınızı server’dan bir sonuç alınana kadar işlemleri durdurur. İstek işlenirken, tarayıcı fiilen donmuş olur. ```javascript function getFile(url) { if (window.XMLHttpRequest) { AJAX=new XMLHttpRequest(); } else { AJAX=new ActiveXObject("Microsoft.XMLHTTP"); } if (AJAX) { AJAX.open("GET", url, false); //notice the 'false' attribute AJAX.send(null); return AJAX.responseText; } else { return false; } } ``` Eğer jQuery kullanıyorsanız, ajax çağrınızda async:false olarak ayarlayın. ```javascript var fileFromServer = getFile('http://somedomain.com/somefile.txt'); ```
Javascript nesnesi içinde (function || function) ifadesi nasıl doğru şekilde tanımlanır? Şu şekilde çalışıyor: <div id="result"></div> <script type="text/javascript"> var Base64Encode = window.btoa || CryptoJS.enc.Base64.stringify; document.getElementById('result').innerHTML = Base64Encode("Please work."); </script> Fakat şu şekilde olunca: <div id="result"></div> <script type="text/javascript"> var Test = { Base64Encode: window.btoa || CryptoJS.enc.Base64.stringify }; document.getElementById('result').innerHTML = Test.Base64Encode("Please work."); </script> şu hatayı üretiyor: "TypeError: 'btoa' called on an object that does not implement interface Window." Fiddle: http://jsfiddle.net/kAGU2/ Neden ilk örnek çalışıyor da ikinci örnek bu hatayı veriyor? Bu özel hatayı düzeltmenin doğru yolu nedir?
Neden ilk örnek çalışıyor ama ikinci örnek bu hatayı veriyor? Fonksiyon Base64Encode() olarak çağrıldığında, this bağlamı otomatik olarak window’a ayarlanır. Ancak Test.Base64Encode() şeklinde bir metod olarak çağırdığınızda, this Test’e referans olur ve btoa bundan hoşlanmaz. Bu özel hatayı düzeltmenin doğru yolu nedir? Beklenen bağlama bağlamanız gerekir: Base64Encode = window.btoa ? window.btoa.bind(window) : CryptoJS.enc.Base64.stringify; C: .bind() kullanın: var Test = { Base64Encode: function() { if (window.btoa) return window.btoa.bind(window); return CryptoJS.enc.Base64.stringify; }() }; Hatayı, fonksiyonu obje özelliği referansı ile çağırdığınız için aldınız. Bunu yaptığınızda, this’in değeri ilgili objeye referanslanır. btoa() fonksiyonu bunu istemiyor (sebebi bilinmez), ama .bind() sizin için doğru this ile çalışan bir wrapper fonksiyon oluşturuyor. C: Görünüşe göre btoa fonksiyonu Window sınıfının bir üye fonksiyonu. Bu yüzden this’in window’a ayarlanmış olması gerekiyor. Sizin kurulumunuzda bunun çalışması için şöyle çağırmalısınız: Test.Base64Encode.call(window,"Please work.");
ASP.Net Razor Page'de Boostrap carousel sorunları ASP.Net MVC 5 + Twitter Bootstrap 3 kullanırken epeyce sorun yaşıyorum. Stil verme kısmı çalışıyor, bunda bir sıkıntı yok - fakat eklediğim carousel döngüye girmiyor, ayrıca next/prev oklarına veya navigasyon butonlarına da tepki vermiyor. Hatta pes edip bir makaleden carousel örneği aldım: (Bootstrap Carousel Tutorial) ki kendi kodumda hata olup olmadığını elemek istedim. Kod: <!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>@ViewBag.Title - My ASP.NET Application</title> @Styles.Render("~/Content/css") <!-- this is the bundle name --> @Scripts.Render("~/Content/bundles/modernizr") </head> <body> <!--------------------------- Carousel -------------------------------> ( Exact code from http://bootstrapbay.com/blog/bootstrap-3-carousel-tutorial/ ) <!--------------------------------------------------------------------> <div class="container body-content"> @RenderBody() <hr /> <footer> <p>&copy; @DateTime.Now.Year - My ASP.NET Application</p> </footer> </div> @Scripts.Render("~/bundles/jquery") @Scripts.Render("~/bundles/bootstrap") @RenderSection("scripts", required: false) Ancak, başta da bahsettiğim gibi bu şekilde de çalışmıyor. Bir fikri olan var mı? [Site.less veya BundleConfig kodumu ekleyerek soruyu kalabalıklaştırmak istemedim - ama gerekirse paylaşabilirim.] (Bu arada, ayrıca şunları da denedim <script src="http://code.jquery.com/jquery.min.js"></script> <script src="http://ajax.aspnetcdn.com/ajax/jquery.validate/1.13.1/jquery.validate.js"></script> <script src="~/Content/Scripts/bootstrap/js/bootstrap.min.js"></script> <script src="~/Content/Scripts/respond.js"></script> yani bundle kullanmak yerine direkt bu şekilde denemiştim - ama yine aynı sonuç...)
Doğru yöne bakmam gerektiği konusunda yönlendirildikten sonra, dosyaları taşıdığımı/yeni adlandırdığımı ve çağrıyı güncellemediğimi fark ettim. şu yerine @Scripts.Render("~/bundles/jquery") @Scripts.Render("~/bundles/bootstrap") şunu kullanmalıydım @Scripts.Render("~/Content/bundles/jquery") @Scripts.Render("~/Content/bundles/bootstrap") böylece bundle config ile uyumlu olacaktı var jqueryBundle = new ScriptBundle("~/Content/bundles/jquery"); ... var bootstrapBundle = new ScriptBundle("~/Content/bundles/bootstrap");
JSX ile ilgili Hata: React Kütüphanemde Preact’a Geçince Sorun Yaşıyorum Oldukça basit bir React kütüphanem var, kendi state yönetimimi kullanıyorum. Sadece bir Higher Order Component’ten oluşuyor: import React from 'react'; /** * * @param {Object} state - SubState instance’ına referans * @param {Object} chunk - state’ten props’a map’lemek istediğiniz props objesi */ const connect = (state, chunk)=> Comp => props =>{ const newProps = {}; for (let key in chunk){ newProps[key] = state.getProp(chunk[key]); } return (<Comp {...newProps} {...props} />) }; export { connect } Kütüphaneyi bu şekilde publish ettiğimde, JSX’deki < karakterini parse edemediğine dair bir syntax error alıyorum. Bu yüzden kodu babel’dan geçiriyorum //.babelrc { "presets": ["@babel/preset-env","@babel/preset-react"] } şu webpack config’i kullanarak: const path = require('path'); module.exports = { entry: './src/index.js', output: { path: path.resolve(__dirname), filename: 'index.js', library: 'substateConnect', libraryTarget: 'umd' }, module: { rules: [ { test: /\.js$/, exclude: /node_modules/, use: ["babel-loader"] } ] }, } package.json dosyamın dependency ve publish bölümü şu şekilde: "devDependencies": { "@babel/core": "^7.0.0", "@babel/preset-env": "^7.0.0", "babel-core": "^6.26.3", "babel-loader": "^8.0.2", "babel-preset-env": "^1.7.0", "babel-preset-react": "^6.24.1", "react": "^16.5.0", "react-dom": "^16.5.0" }, "files": [ "index.js", "index.map", "src/index.js" ], "dependencies": { "@babel/preset-react": "^7.0.0", "substate": "^4.0.0", "webpack": "^4.17.2", "webpack-cli": "^3.1.0" } preact-compat kullanıyorum (web sitesinden bakarak) ama hala <undefined></undefined> hatası alıyorum. https://github.com/developit/preact-compat#usage-with-webpack Şu anda babel’dan geçirdiğimde kütüphanenin çıktısında react var ve kütüphanemi kullanan herhangi bir HOC, React veya Preact’da <undefined></undefined> olarak etiketleniyor. Eğer un-babel’d kodu publish edersem ve sadece yukarıdaki gibi ECMAScript ile yazılmış kaynak kodunu bırakırsam bu defa da JSX’deki < karakteri nedeniyle parse hatası alıyorum. Ama kütüphaneyi node_modules üzerinden değil de, doğrudan kendi oluşturduğum bir myLibrary.js gibi dosyada referans alırsam ve un-babel’d kodu kullanırsam çalışıyor. Dependency’lerimi doğru şekilde nasıl yönetebilirim? React peerDependency mi olmalı? Ayrıca, bu kütüphaneyi node_modules klasöründen HEM React HEM de Preact ile çalışacak şekilde nasıl kullanabilirim?
Bence webpack dosyanızda resolve yok. Lütfen resolve konfigürasyonunu da deneyebilir misiniz? { // ... resolve: { alias: { 'react': 'preact-compat', 'react-dom': 'preact-compat', // Sadece `createClass` kullanan bir modül tüketiyorsanız gerekli 'create-react-class': 'preact-compat/lib/create-react-class', // Sadece `react-dom-factories` gerektiren bir modül kullanıyorsanız gerekli 'react-dom-factories': 'preact-compat/lib/react-dom-factories' } } // ... } A: @Dominic’e bağımlılıklarımı düzenlememde yardımcı olduğu için teşekkürler. Aslında yeni bağımlılıklar temel olarak şöyle görünüyor: "devDependencies": { "@babel/core": "^7.0.0", "@babel/preset-env": "^7.0.0", "@babel/preset-react": "^7.0.0", "babel-loader": "^8.0.2", "react": "^16.5.0", "react-dom": "^16.5.0", "webpack": "^4.17.2", "webpack-cli": "^3.1.0" }, "dependencies": { "substate": "^4.0.0", } Önemli bir not: React’i bağımlılık olarak eklemem gerekmedi. Webpack ve babel kullanımı tamamen geliştirme süreci ve test amaçlı oldu. Asıl son ürün, derlenmiş bir index.js dosyasından, sadece şu hale geçti: import React from 'react'; /** * * @param {Object} state - SubState örneğine referans * @param {Object} chunk - state’ten pros’lara map etmek istediğiniz props nesnesi */ const connect = (state, chunk)=> Comp => props =>{ const newProps = {}; for (let key in chunk){ newProps[key] = state.getProp(chunk[key]); } return (<Comp {...newProps} {...props} />) }; export { connect } Varsayım (ve bence oldukça güvenli ve mantıklı bir varsayım): Bunu kullanan herkes ihtiyaca göre derleme yapacaktır ve mevcut react projesinde preact’ı react yerine geçecek şekilde alias’layacaktır. Bu varsayım bana minifikasyon, webpack veya gerçek bir derleme aşamasını kütüphaneden çıkartma olanağı verdi. Yani aslında, bu dosyayı normal bir Higher Order Component olarak kullanmanız yeterli, gerisini React bir bundler ile halledecek ve dökümana göre React’i Preact ile değiştirmek sorunsuz çalışacaktır. Teşekkürler.
readAllBytes kullanarak bir dosyanın baytlarını okuyorum, fakat dosyayı değiştirdiğimde çıktı değişmiyor "files" adında bir dizinim var ve içinde 2 tane txt dosyası var. Dosyaların isimleri farklı ama içerikleri tamamen aynı. Bu kodu kullandığımda, readAllBytes ile aynı byte[]'i almıyorum. Baytları yazdırdığımda aynı çıktıyı almam gerekir mi? Eğer gerekmezse, bu şekilde bayt dizilerini karşılaştırmak için hangi yöntemi kullanabilirim? Şunu yapmak istiyorum: Eğer içerikleri ortak olan ama tamamen aynı olmayan 2 dosyam varsa, bu durumda iki bayt dizisinde de ortak noktalarım olur mu? Bunu sağlayacak yöntem hangisi olur? public class Main { public static final File CWD = new File(System.getProperty("user.dir")); public static final File files = new File(CWD, "files"); public static void main(String[] args) { for (File file: files.listFiles()){ try { byte[] bytes = Files.readAllBytes(file.toPath()); System.out.println(bytes); System.out.println(file.toString()); } catch (IOException e){ System.out.println("File is empty"); } } } }
Bir byte[] dizisini String olarak yazdırmaya çalışıyorsunuz ve bunun için String.valueOf(bytes) kullanıyorsunuz. Bu da [B@23ab930d gibi bir çıktı üretiyor; yani [B ifadesinden sonra dizinin hashcode'unu gösteriyor. Bu nedenle, farklı byte dizileri farklı string değerlerine sahip olur. Şunları karşılaştırın: byte[]a=new byte[]{65}; System.out.println(new String(a)); => A System.out.println(a); // Şuna benzer bir şey yazdırır: [B@6438a396 Byte dizisinin String'e dönüştürülmüş içeriğini yazdırmak için şu şekilde değiştirin: System.out.println(new String(bytes)); VEYA: metin dosyasını doğrudan String olarak okuyun: String contents = Files.readString(file.toPath()); System.out.println(contents);
Bir CSV dosyasındaki verileri, dosyadan daha fazla sütunu olan bir MySQL tablosuna eklemek istiyorum. Amacım, CSV dosyasından gelen verilerle bazı sütunları, sorguda belirli bir değerle ise diğer sütunları doldurmak. Örneğin, CSV dosyam her satırda "value1,value2" formatında veri içeriyor. Verileri, 3 sütundan oluşan bir tabloya eklemek istiyorum. İlk iki sütun dosyadan gelen verilerle, üçüncü sütun ise sorguda sabit olarak "1" değeriyle doldurulmalı. Şu ana kadar yalnızca dosyadaki verilerle tablonun ilk iki sütununu dolduran aşağıdaki sorguya sahibim: LOAD DATA LOCAL INFILE 'target_file' INTO TABLE table_name FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '\"' LINES TERMINATED BY '\n' (col1,col2);
Üçüncü alan için varsayılan değer olarak "1" belirleyebilir ve ardından csv dosyasını içe aktarabilirsiniz. Ya da csv dosyasına dahil edilmeyen alanları nullable olarak işaretleyip, ardından null değerleri güncellemek için bir sorgu çalıştırabilirsiniz.
iPhone durum çubuğu bir modal view gösterilirken nasıl kaybolur? Bir modal view göstermek istiyorum ve bunun iPhone'un status bar'ının üzerini tamamen kaplamasını istiyorum. Modal view controller'ın wantsFullScreenLayout özelliğini YES olarak ayarlamayı denedim; ayrıca parent view'ın özelliğini de YES olarak ayarladım. Bu işe yaramıyor, muhtemelen çünkü modal view, ana pencerenin içeriğinin (status bar dahil) altında gösteriliyor. İkinci yaklaşımım ise "wantsFullScreenLayout" yöntemini tamamen bırakıp, status bar'ı modal view gösterilmeden hemen önce gizlemek ve modal view kapandıktan sonra tekrar göstermek oldu. Bu neredeyse işe yarıyor, fakat sonunda modal view'ın parent view'ı yanlış şekilde yerleşiyor (navigasyon bar'ı status bar'ın arkasında kısmen gizli kalıyor). -[view setNeedsLayout] çağırmak hiçbir işe yaramıyor. Bu sorunu nasıl çözmeliyim? Teşekkürler.
Uygulamada durum çubuğunu gizlemek için UIApplication sınıfındaki - (void)setStatusBarHidden:(BOOL)hidden animated:(BOOL)animated metodunu kullanmak isteyeceksiniz. Şuna benzer bir kod ile: [[UIApplication sharedApplication] setStatusBarHidden:YES animated:YES]; Bu, durum çubuğunu güzel bir geçiş animasyonu ile gizleyecektir. A: Tartışmaya geç katılıyorum, fakat başkalarının zaman kaybetmesini engelleyebilirim diye düşünüyorum. Benim bir NavController içinde birden fazla kez push edilmiş bir VC'im var (bu VC'ye PARENT diyelim). Şimdi ise, PARENT’ın üzerinden nav bar VE status bar gizlenmiş bir modal ekran (CHILD) göstermek istiyorum. Uzun denemelerden sonra, şu şekilde çalıştığını buldum... 1) PARENT’ta presentModalViewController:(UIViewController *)modalViewController animated:(BOOL)animated metodunu çağırarak CHILD VC’yi gösterdiğim için, artık nav bar devre dışı kalıyor (yani onu ayrıca gizlemeye gerek yok). 2) CHILD VC nib dosyasındaki view 320x480 boyutunda. 3) CHILD VC, viewDidLoad içinde self.wantsFullScreenLayout = YES; ayarlıyor. 4) CHILD’ı göstermeden hemen önce, [[UIApplication sharedApplication] setStatusBarHidden:YES withAnimation:YES]; ile status bar’ı gizliyorum. 5) CHILD VC’yi bir delegate protokol metodunu kullanarak PARENT içinde kapatıyorum ve nav bar’ın doğru yerde çizildiğinden emin olmak için dismissModalViewControllerAnimated:YES’ten önce [[UIApplication sharedApplication] setStatusBarHidden:NO withAnimation:YES]; çağırıyorum. Umarım faydalı olur.
Farklı Bir Klasörden Ses Dosyasına Erişmek Bilgisayar bilimi dersim için bir proje yapıyorum ve websitesine ses ekliyorum. Bunu cloud 9 üzerinde gerçekleştiriyorum. Farklı şarkıların bulunduğu, başka bir klasörüm var. Şarkıya üst klasörden erişebilmem gerekiyor. İnsanlar bana şu kodu kullanmamı söyledi: <source src="../folder/filename.mp3" type=mpeg"> Ama bu kod bana görseller için verilmişti, şarkı ile bunu başaramadım. Bu kodu kullandığımda internet sitemde normal görünen bir oynat butonu çıkıyor, fakat o buton gri renkte oluyor. Şarkıyı klasörden çıkarıp ilgili dosyayla aynı seviyeye koyduğumda çalışmasını sağladım. Ses dosyasında bir sorun olup olmadığını görmek için farklı dosyalar da denedim.
Mutlak site URI yönlendirmesini kullanın; yani ses dosyanızın adresi / ile başlamalı ve böylece URL'nin kökünden itibaren yolu göstermelidir. Örneğin: Varsayalım ki mevcut çıktı dosyanız www.site.com/output/file.html ve www.site.com/sounds/laugh.mp3 adresindeki bir sesi yüklemek istiyorsunuz. Bu durumda adresin yalnızca /sounds/laugh.mp3 kısmını referans olarak kullanmanız yeterlidir. Başında / olduğu için bu, kök HTML dizinini belirtir ve sayfaya özgü bir url yerine mutlak site URL’si olduğunu gösterir. <source src="/sounds/filename.mp3" type=mpeg"> Eğer ../sounds/filename.mp3 gibi bir göreli yol kullansaydınız, bu yol ana klasörde (www.site.com/index.html) ya da daha derin bir dizin ağacında (ör. www.site.com/sounds/silly/horses.html) kullanıldığında çalışmayacaktı. Ancak mutlak yol (dosya mevcut ve erişilebilir olduğu sürece) her zaman çalışacaktır. İpucu: Ses dosyanızı yüklediğinizden de emin olun!
BeautifulSoup hiçbir şeyi parse edemiyor gibi görünüyor BeautifulSoup öğrenmeye çalışırken kendime bir proxy scraper yapmaya başladım ve bir sorunla karşılaştım. BeautifulSoup hiçbir şeyi bulamıyor gibi görünüyor ve parse ettiği şeyi yazdırdığımda bana şu çıktıyı gösteriyor: <html> <head> </head> <body> <bound 0x7f977c9121d0="" <http.client.httpresponse="" at="" httpresponse.read="" method="" object="" of=""> &gt; </bound> </body> </html> Parse ettiğim web sitesini ve parser'ı (lxml, html.parser, html5lib) değiştirmeyi denedim ama hiçbir şey değişmedi, ne yaparsam yapayım tam olarak aynı sonucu alıyorum. İşte kodum, birisi neyin yanlış olduğunu açıklayabilir mi? from bs4 import BeautifulSoup import urllib import html5lib class Websites: def __init__(self): self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36"} def free_proxy_list(self): print("Connecting to free-proxy-list.net ...") url = "https://free-proxy-list.net" req = urllib.request.Request(url, None, self.header) content = urllib.request.urlopen(req).read soup = BeautifulSoup(str(content), "html5lib") print("Connected. Loading the page ...") print("Print page") print("") print(soup.prettify())
Sen urllib.request.urlopen(req).read çağırıyorsun, doğru sözdizimi ise: urllib.request.urlopen(req).read() olmalı. Ayrıca bağlantıyı kapatmıyorsun, bunu senin için düzelttim. Bağlantı açmanın daha iyi bir yolu ise with urllib.request.urlopen(url) as req: şeklindeki sözdizimi ile kullanmak; çünkü bu şekilde bağlantı senin için kapatılır. from bs4 import BeautifulSoup import urllib import html5lib class Websites: def __init__(self): self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36"} def free_proxy_list(self): print("free-proxy-list.net sitesine bağlanılıyor ...") url = "https://free-proxy-list.net" req = urllib.request.Request(url, None, self.header) content = urllib.request.urlopen(req) html = content.read() soup = BeautifulSoup(str(html), "html5lib") print("Bağlantı sağlandı. Sayfa yükleniyor ...") print("Sayfa yazdırılıyor") print("") print(soup.prettify()) content.close() # Bağlantıyı kapatmak önemli Daha fazla bilgi için bkz: https://docs.python.org/3.0/library/urllib.request.html#examples
React state'i uygulamada çalışırken güncelleniyor fakat Jest'te güncellenmiyor Uygulamada butona tıkladığımda, input'a yazılan değer kadar arttırıyor, uygulamada bunu yaptığımda çalışıyor fakat Jest ile önce fireEvent.change() ile input'un değerini 10 yapıp sonra fireEvent.click() ile butona tıkladığımda arttırmıyor ve değer 0 olarak kalıyor. Aldığım hata şu: expect(received).toBe(expected) // Object.is equality Expected: 10 Received: 0 33 | fireEvent.click(btnPlus); 34 | > 35 | expect(parseInt(val.textContent)).toBe(10); | ^ 36 | }); 37 | }); 38 | Test dosyam şöyle: import React from 'react'; import Counter from './Counter'; import { render, fireEvent } from '@testing-library/react'; describe('Counter works', () => { let comp; let inp; let btnPlus; let val; beforeAll(() => { comp = render(<Counter />); inp = comp.getByTestId('inp'); btnPlus = comp.getByTestId('btn-+'); val = comp.getByTestId('counter-value'); }); it('Counter exists', () => { expect(comp).toBeTruthy(); }); it('Input works', () => { expect(inp.value).toBe(''); fireEvent.change(inp, { target: { value: 10, }, }); expect(parseInt(inp.value)).toBe(10); fireEvent.click(btnPlus); expect(parseInt(val.textContent)).toBe(10); }); }); Counter dosyası genel olarak şöyle: const Counter = () => { const [state, setState] = useState({ count: 0, inpText: '', }); const setNum = (num) => { setState((prev) => { return { ...prev, count: prev.count + num, }; }); }; const setInp = (e) => { setState((prev) => { return { ...prev, inpText: e?.target.value, }; }); }; return ( <> <h1 data-testid='counter-value' style={{ color: 'white', position: 'absolute', top: '45%', left: '50%', transform: 'translate(-50%,-60%)', }}> {state.count} </h1> <div id='flex'> <Button setNum={setNum} plus='+' num={parseInt(state.inpText)} /> <input data-testid='inp' value={state.inpText} onChange={setInp} /> <Button setNum={setNum} plus='-' num={-parseInt(state.inpText)} /> </div> </> ); }; Ve Button: const Button = (props) => { return ( <button data-testid={`btn-${props.plus}`} onClick={() => { props.setNum(props.num); }}> {props.plus} </button> ); };
beforeAll/beforeEach fonksiyonlarında ilk component kurulumundan kaçınmanı öneririm. Her test case’i izole şekilde çalışmalı ve diğer testlerde yapılan işlemlerden etkilenmemelidir. Bunun yerine, o mantıkla bir yardımcı fonksiyon oluştur ve her testte onu çağır. import React from 'react'; import Counter from './Counter'; import { render, fireEvent } from '@testing-library/react'; describe('Counter works', () => { let comp; let inp; let btnPlus; let val; const renderComponent = () => { comp = render(<Counter />); inp = comp.getByTestId('inp'); btnPlus = comp.getByTestId('btn-+'); val = comp.getByTestId('counter-value'); } it('Counter exists', () => { renderComponent(); expect(comp).toBeTruthy(); }); it('Input works', () => { renderComponent(); expect(inp.value).toBe(''); fireEvent.change(inp, { target: { value: 10 } }); expect(inp.value).toBe('10'); fireEvent.click(btnPlus); expect(val.textContent).toBe('10'); }); });
Soap XML Ayrıştırma Elimde aşağıdaki gibi bir XML var: <?xml version="1.0" encoding="utf-8"?> <soap:Envelope xmlns:soap="http://www.w3.org/2003/05/soap-envelope" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema"> <soap:Body> <SampleResponse xmlns="http://tempuri.org/"> <SampleResult> <diffgr:diffgram xmlns:msdata="urn:schemas-microsoft-com:xml-msdata" xmlns:diffgr="urn:schemas-microsoft-com:xml-diffgram-v1"> <NewDataSet xmlns=""> <Table diffgr:id="Table1" msdata:rowOrder="0"> <tag1>tag1 text</tag1> <tag2>tag2 text</tag2> </Table> <Table diffgr:id="Table2" msdata:rowOrder="1"> <tag1>tag1 text</tag1> <tag2>tag2 text</tag2> </Table> </NewDataSet> </diffgr:diffgram> </SampleResult> </SampleResponse> </soap:Body> </soap:Envelope> Yukarıdaki XML'i aşağıdaki kod ile ayrıştırdım: string XMLresponse = e.response; var XResult = XElement.Parse(XMLresponse); var result = XResult.Descendants("Table") .Select(t => new { tag1 = t.Descendants("tag1").First().Value, tag2 = t.Descendants("tag2").First().Value, }); foreach (var res in result) { string str = res.tag1; // burada sonucu alabiliyorum } listbox.ItemsSource = result; Fakat bunu ListBox'a bağlayamıyorum. Aşağıdaki gibi bir ListBox'ım var: <ListBox x:Name="listbox"> <ListBox.ItemTemplate> <DataTemplate> <StackPanel Orientation="Vertical"> <TextBlock Text="Sample" ></TextBlock> <TextBlock Text="{Binding tag1}" ></TextBlock> <TextBlock Text="{Binding tag2}" ></TextBlock> </StackPanel> </DataTemplate> </ListBox.ItemTemplate> </ListBox> ListBox içinde bir TextBlock ekledim, bu iki kez tekrarlanıyor. Fakat dinamik text block'lar veri ile bağlanmıyor.
İki dinamik değer alan (field) olarak tanımlanmış, property olarak değil. Ve XAML’de yalnızca property’lere bağlanabildiğiniz için, iki property içeren güçlü tipte bir veri yapısı oluşturmanız ve değerleri bunun içine seçmeniz gerekecek. Şunun gibi bir şey: class V { public string tag1 { get; set; } public string tag2 { get; set; } } var result = XResult.Descendants("Table").Select(t => new V { tag1 = t.Descendants("tag1").First().Value, tag2 = t.Descendants("tag2").First().Value, });
iOS Swift kullanarak Azure Notification Hub Rest API ile geçerli bir Authentication Token oluşturamıyorum ve doğrudan bir iPhone üzerinden push notification göndermeye çalışırken sürekli 401 hatası alıyorum. Microsoft Azure'un websitesindeki dokümantasyon eksik ve Objective C ile yazılmış. Swift'e çevirdikten sonra, bazı bölümleri eski ve kullanımdan kaldırılmış fonksiyonları çağırıyor.
Çözdüm. Objective C to Swift translator beklediğim gibi çalışmıyordu, bu yüzden doğrudan Objective C ile kodladım ve her şey çalışıyor. Ancak Azure sitesindeki dokümantasyonun iOS10 için güncellenmesi gerekiyor.
Dört basamaklı sayılarla başa çıkmak: memcache, küçükten büyüğe sıralamada 1000'i 150'nin önüne koyuyor App engine'de, memcache'de saklanan bir listeyi çekiyorum: items = memcache.get("ITEMS") ve bunları amount ve price'a göre sıralıyorum: items.sort(key = lambda x:(x.price, x.amount)) Bu çoğu zaman işe yarıyor, özellikle amount üç basamaklıysa. Ancak, aynı price değerine sahip 150 ve 1000 amount'lu 2 öğe olduğunda, 1000 olan diğeri öncesinde geliyor. Bunu nasıl düzeltebilirim?
düzeltildi: items.sort(key = lambda x:((float)(x.price), (int)(x.amount)))
Snakemake, yeniden deneme (retries) kullandığınızda kuralların log dosyalarını üzerine yazıyor - ekleme (append) işlemini idiomatik olarak nasıl yapabilirim? Snakemake iş akışımda, bir kural bazen rastgele şekilde başarısız olabiliyor. Snakemake 7.7.0 kullanıyorum ve retries yönergesiyle kurala yeniden deneme sayısı belirledim. Komut stdout ve stderr'e çıktı veriyor ve ben ikisini de bir log dosyasına eklemek (append) istiyorum; böylece başarısız denemelerin çıktılarını saklayarak nelerin yanlış gittiğini görebilmek istiyorum. Sahip olduğumun basitleştirilmiş hali şöyle: rule flaky_rule: input: infile = "{sample}/foo.txt" output: outfile = "{sample}/bar.txt" retries: 3 log: flaky_rule_log = "{sample}/logs/flaky_rule.log" shell: """ flaky_script -i "{input.infile}" -o "{output.outfile}" >> "{log.flaky_rule_log}" 2>&1 """ Fakat bunu çalıştırdığımda ve kural başarısız olup tekrar denendiğinde, log dosyasının üzerine yazılmış gibi görünüyor. Şimdilik, log dosyasını params directive'iyle ayarlamak gibi bir geçici çözümüm var; ama bu tabii ki linter tarafından "bir log dosyan yok" uyarısı almama neden oluyor ve bana biraz geçici bir çözüm gibi geliyor. Bunu (hem bu versiyonda hem de daha yeni bir sürümde) daha idiomatik şekilde yapmak mümkün mü?
Muhtemelen fazla karmaşık ve çok da idiomatik değil, ama yine de şöyle bir seçenek var. Komutunuzu bir python subprocess olarak çalıştırıp, çıktısını analiz edip, belirli sayıda denemeden sonra ne yapılacağına karar veriyorsunuz. Örneğin: rule flaky_rule: input: infile = "{sample}/foo.txt" output: outfile = "{sample}/bar.txt" params: retries = 3 log: flaky_rule_log = "{sample}/logs/flaky_rule.log" run: import subprocess for retry in range(0, params.retries): p = subprocess.Popen('flacky_script {input} {output} >> "{log.flaky_rule_log}" 2>&1', stdout=subprocess.PIPE, stderr=subprocess.PIPE, shell=True) stdout, stderr = p.communicate() if p.returncode == 0: break if p.returncode != 0: raise Exception('Failed after %s retries' % params.retries) A: İlgili bir soruya verilen bir cevaba dayanan bir varyasyon şöyle. Buradaki fikir, log dosyasının yolunu bir resource olarak belirtmek. Bu, snakemake'in onu otomatik olarak temizlemeyeceği anlamına geliyor (bazı durumlarda istenmeyen bir durum olabilir, bu yüzden dikkatli kullanın): rule flaky_rule: input: infile = "{sample}/foo.txt" output: outfile = "{sample}/bar.txt" resources: flaky_rule_log = lambda wildcards, attempt: f"{wildcards.sample}/logs/flaky_rule_attempt{attempt}.log" retries: 3 shell: """ flaky_script -i "{input.infile}" -o "{output.outfile}" >> "{resources.flaky_rule_log}" 2>&1 """ params veya logs'un attempt desteklemesi harika olurdu, ancak şu anda bu hala açık bir sorun.
Masaüstü istemciden ASP .Net MVC'deki ActionResult metoduna nesne parametresi geçmek Aşağıdaki kodu göz önünde bulundurun: using (var client = new WebClient()) { string url = string.Concat(someUrl, "SomeControllerName/", currentId, "/WriteLogFile"); var toWrite = DateTime.Now /* Code to post object to URL goes here e.g. client.UploadValues(url, someNameValueCollectionObject)*/ } Ve controller metod imzası: public ActionResult WriteLogFile(DateTime date, int id) Kodun ilk kısmının DateTime nesnesini bu ActionResult metoduna nasıl geçirebilirim?
Tarih için biçimlendirilmiş string kullanabilirsin: string url = string.Format("someUrl/SomeControllerName/WriteLogFile/{0}/{1}", currentId, DateTime.Now.ToString("MM-dd-yyyy")); ve bunu uygun controller ve action'a yönlendirmek için routes tablosuna bir entry ekleyebilirsin: routes.MapRoute("SomeRoutename", "SomeControllerName/WriteLogFile/{id}/{date}", new { controller = "SomeControllerName", action = "WriteLogFile", date= DateTime.Now}); A: Sorgu string parametresi ekle: var toWrite = DateTime.Now; string url = string.Concat(someUrl, "SomeControllerName/", currentId, "/WriteLogFile"); url = string.Concat(url, "?date=", toWrite.ToString("s"));
Mapbox Haritası React Build Sonrası Yüklenmiyor React uygulamamı build ettikten sonra mapbox çalışmıyor. Localhost’ta her şey sorunsuz çalışıyor, bu yüzden access-token ile alakalı bir sorun olabileceğini sanmıyorum. Benzer bir durumla karşılaşan ya da bir fikri olan var mı? import mapboxgl from "mapbox-gl"; import "mapbox-gl/dist/mapbox-gl.css"; const ProjectTemplate = (props) => { const [map, setMap] = useState(null); const mapContainer = useRef(null); useEffect(() => { mapboxgl.accessToken = '--accessToken--'; const initializeMap = ({ setMap, mapContainer }) => { const map = new mapboxgl.Map({ container: mapContainer.current, style: "mapbox://styles/paul0711/cke1dpmlf0sua19nxso3b1zm7", center: [props.lon, props.lat], zoom: 17 }); map.on("load", () => { setMap(map); map.resize(); map.addControl( new mapboxgl.NavigationControl() ); map.addControl(new mapboxgl.GeolocateControl({ trackUserLocation: true })); new mapboxgl.Marker({ color: "#575656", scale: 1.5}) .setLngLat([props.lon, props.lat]) .addTo(map); }); }; if (!map) initializeMap({ setMap, mapContainer }); }, [props.lat, props.lon, map]); return( <div className='project__template__map' ref={el => (mapContainer.current = el)} /> ) } Teşekkürler arkadaşlar!
Çözümü buldum! Bu, mapbox'tan kaynaklanan bir hata. 1.13.0 sürümünü kullanmanız gerekiyor.
JWT içinde Roles ayarlamak iyi bir uygulama mı? JWT kullanmayı düşünüyorum. jwt.io örneğinde payload verisinde aşağıdaki bilgiyi görüyorum: "admin": true Admin bir Role olarak kabul edilebilir, bu yüzden sorumu soruyorum. Token payload'unda role bilgisini ayarlamak alışılmış/iyi bir uygulama mı? Roller dinamik olarak değiştirilebildiği için, bu konuda oldukça sorgulayıcıyım.
Token’ınızda istemciniz için faydalı olabilecek ek bilgileri saklamak amacıyla claims eklemenize engel yoktur. Ancak ben JWT’yi sadece kimlik doğrulama (çağrıyı yapan kişinin kim olduğunu belirleme) amacıyla kullanmayı tercih ederim. Yetkilendirme (çağrıyı yapan kişinin ne yapabileceği) gerekiyorsa, en güncel değeri almak için çağrıyı yapan kişinin rol/izin bilgilerini kalıcı veritabanınızdan sorgulamanız daha doğru olur. Kısa ömürlü token’lar için (örneğin, bir mikroservis kümesinde kimlik doğrulama ve yetkilendirme aktarılırken), rol bilgilerinin token içinde olmasının faydalı olduğunu düşünüyorum. A: Burada da belirtildiği gibi, ASP.NET Core JWT içindeki rollerinizi otomatik olarak algılar: { "iss": "http://www.jerriepelser.com", "aud": "blog-readers", "sub": "123456", "exp": 1499863217, "roles": ["Admin", "SuperUser"] } ve bu rolleri, uygulamanızın belirli bölümlerini güvenli hale getirmek için yaygın şekilde kullanılan ASP.NET Roles’a ‘map’ eder. [Authorize(Roles = "Admin")] public class SettingsController : Controller JWT’yi düzenleyen (ve imzalayan) sunucu genellikle authentication server değil, authorization server olarak adlandırılır; bu nedenle, role (ya da scope) bilgisinin JWT’ye dahil edilmesi mantıklıdır, her ne kadar bunlar registered claim olmasalar da. A: Resmi JWT sitesinde, JWT kullanımıyla ilgili olarak açıkça "authorization" (kimlik doğrulamanın aksine) da bir kullanım senaryosu olarak belirtilmiştir: When should you use JSON Web Tokens? Authorization: Bu, JWT kullanımındaki en yaygın senaryodur. Kullanıcı giriş yaptıktan sonra, her sonraki istekte JWT bulunur; bu sayede kullanıcı, token ile erişimine izin verilen rotalara, servislere ve kaynaklara erişebilir. Single Sign On (SSO) günümüzde JWT’yi yaygın şekilde kullanan bir özelliktir. Bunun nedeni, JWT’nin küçük boyutlu olması ve farklı alan adlarında kolayca kullanılabilmesidir. Ancak, güvenlik açısından, role veya permission (izin) bilgilerini token’a eklemek isteyip istemediğinizi iki kere düşünmelisiniz. (Aşağıdaki metin, kısa tutulan kabul edilmiş cevapların daha derinlemesine bir devamı olarak okunabilir.) Token’ı oluşturup imzaladıktan sonra, permission’u token süresi dolana kadar vermiş oluyorsunuz. Peki ya yanlışlıkla admin yetkisi verdiyseniz? Token süresi dolana kadar, o kişi yanlışlıkla atanmış yetkilerle sitenizde işlem yapabilir. Bazı kişiler, token kısa ömürlü olduğu için bunun büyük bir sorun olmayacağını savunabilir, fakat birinin kısa sürede ne kadar zarar verebileceğini düşünürsek bu güçlü bir argüman değildir. Bazı kişiler ise token’ların kara listeye (blacklist) alınacağı ayrı bir veritabanı tablosu tutulmasını savunuyor; bu, token’ı anında geçersiz kılma sorununu çözer, fakat uygulamanızın arka planında bir çeşit oturum durumu (session state) takibi gerektirir. Çünkü artık eldeki tüm aktif oturumların kaydını tutmak gerekir – bu da gelen her istek için kara listeye bir veritabanı sorgusu yapmayı zorunlu kılar. Bu ise mevcutta "rolleri JWT’ye koyup ekstra bir veritabanı çağrısından kurtulmak" hedefinin yerine, "ekstra blacklist sorgusu" getirmiş olur. Bu yüzden, yetkilendirme claim’lerini token’a eklemek yerine, kullanıcı rolleri ve izinleri ile ilgili bilgiyi herhangi bir anda tam denetim sağlayabildiğiniz auth-server'ın veritabanında tutabilirsiniz (örneğin, istediğinizde herhangi bir yetkiyi iptal etmek için). Bir istek geldiğinde ise, mevcut rolleri auth-server’dan (veya izinleri nerede depoluyorsanız oradan) çekebilirsiniz. Bu arada, IANA’nın kayıtlı public claim’ler listesine bakarsanız, bu claim’lerin kimlik doğrulama ile ilişkili olduğunu ve kullanıcının ne yapabileceği (yetkilendirme) ile ilgili olmadığını göreceksiniz. Özetle şunları yapabilirsiniz... * *Rolleri JWT’nize ekleyebilirsiniz, eğer (a) kolaylık sizin için önemliyse, (b) izinleri almak için ekstra veritabanı çağrısından kaçınmak istiyorsanız, (c) bir kişinin sahip olmaması gereken izinlere kısa da olsa sahip olmasına aldırmıyorsanız ve (d) izinlerin eklenmesiyle JWT içinde oluşacak (küçük) boyut artışını dert etmiyorsanız. *Rolleri JWT’nize ekleyip, ayrıca bir blacklist kullanabilirsiniz, eğer (a) bir kişinin sahip olmaması gereken bir yetkiye asla sahip olmaması gerektiğinden emin olmak istiyorsanız, (b) bunun her gelen istek için blacklist’e sorgu yapılması anlamına geldiğini kabul edebiliyorsanız ve (c) izinlerin eklenmesiyle JWT boyutunun biraz artmasını dert etmiyorsanız. *Rolleri JWT’nize eklemeden, gerektiğinde sorgulayabilirsiniz, eğer (a) bir kişinin asla sahip olmaması gereken bir yetkiye sahip olmasını tamamen önlemek istiyorsanız ya da (b) kara liste yükünden kaçınmak ya da (c) JWT’nizin boyutunun az da olsa artmasını engellemek ve (d) bunun arada/bazen/gerekirse rollerin gelen isteklerde sorgulanması maliyetine katlanmak anlamına geldiğini kabul ediyorsanız.
aşağıdaki koda sahibim ve kod mükemmel bir şekilde çalışıyor ancak hyperlink'e tıklamaya çalıştığımda hiçbir şey olmuyor yol doğru ve dosya adı da doğru sağ tıklayıp -> hyperling -> open hyperling seçeneğini de denedim, yine de hiçbir şey olmuyor lütfen yardım edin
Eğer bağlantıya tıkladığınızda bir hata oluşuyorsa, bu bağlantının yanlış olmasından kaynaklanıyor olabilir; ancak hiçbir şey olmuyorsa, muhtemelen tablonuzda yanlış bir veri türü kullanılmıştır. Tablonuzun design view kısmına gidin ve veri türünü Hyperlink olarak ayarlayın.
Zipkin, izleme isteği araması için span’ları nasıl birleştiriyor? Zipkin web arayüzünde, istek URL’si http://10.19.138.169:9411/zipkin/api/v1/trace/ae60bd175a61e820 olduğunda, dönen yanıtın şu şekilde olduğunu görüyorum: ```json [ { "traceId": "ae60bd175a61e820", "id": "ae60bd175a61e820", "name": "client", "timestamp": 1511858133224433, "duration": 508444, "binaryAnnotations": [ { "key": "lc", "value": "", "endpoint": { "serviceName": "monitor-gw-http-c", "ipv4": "10.19.138.169" } } ] }, ... ] ``` Kolayca görülebileceği gibi burada 8 adet span var. Aynı traceId ile api kullanarak trace çektiğimde ise ```java ElasticsearchStorage storage = ElasticsearchStorage.newBuilder() .hosts(Arrays.asList("http://10.19.138.169:9200")).build(); List<Span> trace = null; try { trace = storage.spanStore().getTrace(traceId).execute(); } catch (IOException e) { e.printStackTrace(); } ``` şu cevabı alıyorum: ```json [ { "traceId": "ae60bd175a61e820", "parentId": "16eefe087852af41", "id": "97c637bcc891b86a", "name": "data dequeue, send to kafka", "timestamp": 1511858133593147, "duration": 2416, "localEndpoint": { "serviceName": "monitor-gw-s", "ipv4": "10.19.138.169" } }, ... ] ``` Kolayca fark edilebileceği gibi burada ise 18 adet span var. Görünüşe göre bazı span’lar web isteğinde birleştirilmiş, bununla ilgili kaynak kodun tam olarak nerede bu işlemi yaptığını öğrenmek istiyorum. Teşekkürler!
İlk istek Zipkin api'nin v1 sürümünü kullanırken, ikinci istek v2 sürümünü kullanıyor (v2 spesifikasyonu için bkz. https://github.com/openzipkin/zipkin/issues/1499). Spans, client receive, server receive, client send ve server send annotation'larına sahip olmak yerine, kind (SERVER ve CLIENT) olarak ayrılmıştır (bu yüzden daha fazla span vardır).
Inno Setup'ta {tmp} dizininden ardışık DLL'leri çağırmak Delphi'de oluşturduğum bir DLL'i (örneğin 'A.dll') Inno Setup scriptimde kullanmak istiyorum ve bu scriptte bir dizi başka DLL ('B.dll', 'C.dll', ...) de kullandığım DLL'ler arasında. Tüm bu dll dosyalarını Files bölümünde aşağıdaki şekilde ekliyorum: [Files] Source:"libs\*.dll"; Flags: dontcopy Kod bölümünde ilgili DLL'in metodlarını Online help'te anlatıldığı gibi bildiriyorum ve loadwithalteredsearchpath bayrağını ekliyorum: procedure MyMethod; external 'MyMethod@files:A.dll,B.dll,C.dll stdcall loadwithalteredsearchpath'; Kurulum başladığında, gereken tüm dosyalar {#tmp} sabitinin işaret ettiği geçici dizine kopyalanıyor. MyMethod'un çalışması da gayet güzel başlıyor (Showmessages ile kontrol ettim), fakat metod, diğer DLL'leri kullanmaya çalıştığında her şey bozuluyor. {#tmp}'den ayrı olarak, kurulum sırasında iki farklı geçici klasör daha oluşturuluyor (hepsinin adı 'IS-xxxxx.tmp' şeklinde), bunların içinde 'setup.tmp' bulunuyor (bu dosya {#tmp}'de yok). Şimdi eğer kurulumun başında tüm DLL'leri (A.dll hariç) bu diğer iki dizine manuel olarak kopyalarsam, her şey düzgün çalışıyor. Fakat scriptimde tanımlandığı haliyle çalıştırırsam, A.dll diğer kütüphaneleri bulamıyor gibi gözüküyor. Neden böyle oluyor ve nasıl çözebilirim? Bu bir PATH problemi gibi görünüyor, fakat Inno Setup'ın tmp dizinini PATH'e eklediğini düşünüyordum, böylece kurulum gerekli DLL'leri bulabilmeli (ki bunu yapıyor, ama garip şekilde sadece A.dll için). Yardımlarınız için şimdiden teşekkürler! :) EDIT: Gerçek hata, A.dll içinde 'yabancı' bir DLL'i (B.dll, C.dll, ...) çağırdığımda alıyorum: Access violation at address 00408CC7 in module 'setup.tmp'. Read of adress 00000000. EDIT 2: Sorunun nedenini anladığımı düşünüyorum: Kendi A.dll'imde ExtractFilePath (ilk link) ile gördüm ki setup.exe {tmp} içinde değil, kurulumun başında oluşturulan bu diğer iki geçici dizinden birinde çalıştırılıyor. Ayrıca, kütüphane arama yoluna eklenenin {tmp} değil, mevcut çalışma dizini (yani Inno'nun çalıştığı dizin) olduğunu fark ettim (ikinci link). Bu, diğer kütüphanelerin (B.dll, C.dll, ...) sadece manuel olarak bu diğer temp dizinlerine kopyalandığında erişilebilir olmasını açıklıyor. Sanırım A.dll, "main-library" olarak external komutta belirtildiği için {tmp}'den sorunsuzca çıkarılıp çağrılabiliyor. loadwithalteredsearchpath ile diğer kütüphanelerin de aynı klasörde kalabileceğini sanmıştım ama bu şekilde çalışmıyor. Peki şimdi bunu nasıl şık bir şekilde çözebilirim? Sanırım DLL'leri {tmp}'ye çıkardıktan sonra manuel olarak setup-path'e (ExtractFilePath(ParamStr(0)) ile) kopyalayabilirim ve problem çözülür. Ama bu biraz "kirli" bir geçici çözüm gibi çünkü Inno Setup'ta DLL kullanımı farklı olmalıydı. * *Temporary Inno setup dosyasının bulunduğu yolu nasıl alırım *Birden fazla bağımlı DLL ile external function çağrısı
DLL’leri sadece yükleyip, sistem kayıt defterine kaydetmediğinizden emin değilim. Ancak ilk DÜZENLEME’niz, kayıt defterinin bir kısmına erişim denemeleri sonucu oluşan bir hata gösteriyor, bu yüzden kayıt işlemini yapmadığınızı varsayıyorum. Bu durumda ben basitçe bir batch dosyası (CMD konsolunda komutları çalıştırır) kullanarak DLL’lerimi nasıl tek tek kaydediyorsam öyle kaydediyorum: @echo off echo Registering DevExpress DLLs %~dp0gacutil.exe /i %~dp0DevExpress.BonusSkins.v12.1.dll %~dp0gacutil.exe /i %~dp0DevExpress.Charts.v12.1.Core.dll Bunu iss script’inin RUN bölümüne şu şekilde yerleştiriyorum: [Run] Filename:C:\myFolder\RegisterDevExpress.bat" Umarım yardımcı olur.
C++ : derleyici bağımlılıklarından kaçınmak ve pointer aşırı kullanımı arasında denge kurmak Pointer’ların gereksiz yere aşırı kullanılmasının artık eski tarz / günümüzün dışında bir yaklaşım olduğu biliniyor. Ancak, bu ideali uygularken derleyici bağımlılıklarından kaçınmak gibi başka bir konuyla çeliştiğini fark ediyorum. Özellikle, bir header dosyasında forward declarations kullanarak #include ifadelerinden kaçınabiliyorum, eğer üye değişkenlerimi pointer olarak tanımlarsam. Fakat bu da bazen kendi sınıflarımdaki üye değişkenlerin aslında iyi bir gerekçe yokken pointer olarak tanımlanmasına yol açıyor. Bununla bağlantılı olarak, Qt framework’ünü kullanırken (ki bundan keyif alıyorum) arayüzün bu şekilde tasarlanmış olması sebebiyle, her şeyi yığına değil heap’e atan java-benzeri bir programlama tarzına yöneldiğimi görüyorum. Bu iki rekabet halindeki konuyu nasıl dengeleyebilirim?
Qt buna ihtiyaç duyar çünkü dinamik olarak yüklenebilen bir kütüphanedir. Kullanıcılar, implementasyon detaylarını dert etmeden derleyip linkleyebilirler. Çalışma zamanında Qt'nin birçok farklı sürümünü tekrar derleme gerektirmeden kullanabilirsiniz. Bu oldukça güçlü ve esnek bir özellik. Eğer private nesne örnekleri sınıfların içinde kullanılsaydı, bu mümkün olmazdı. A: Duruma bağlıdır. Bağımlılıkları azaltmak kesinlikle başlı başına iyi bir şeydir, fakat diğer tüm konulara karşı tartılması gerekir. Örneğin, compilation firewall idiom kullanmak, bağımlılıkları header dosyasının dışına taşıyabilir, fakat bunun bir allocation maliyeti olur. Qt'nin yaptığına gelince: bu bir GUI framework'üdür ve genellikle (her zaman değil—Qt'ye bakmadım) çokça polymorphism barındırır ve çoğu sınıfın bir kimliği vardır ve kopyalanamaz. Bu gibi durumlarda, genellikle dinamik allocation yapmak ve pointer'larla çalışmak zorunda kalırsınız. Pointer'lardan kaçınma kuralı, esasen value semantics'e sahip nesneler için geçerlidir. (Ve bu arada, çok fazla pointer kullanmanın "eski moda" ya da "demode" olduğu yönündeki düşünceler doğru değildir. Bu, ben C++ kullanmaya başladığımdan beri—25 yıldır—geçerlidir.)
FOSRestBundle ile header'ları ayrıştırma Bir API uygulamak için FOSRestBundle kullanıyorum. İstemciden bana gönderilen HTTP header'larını ayrıştırmak istiyorum. Bunlara nasıl erişebilirim?
Controller metotlarınızda Request nesnesinden header bilgilerini alabilirsiniz. use Symfony\Component\HttpFoundation\Request; public function someAction(Request $request){ $request->headers //header bilgilerini alır }
Flume NoSuchMethodError Hatası: Twitter Verisini HDFS'e Çekerken Flume kullanarak Twitter verisini HDFS'e çekmeye çalışıyorum ancak bir türlü kurtulamadığım bir hata yüzünden başarılı olamıyorum. Komut: bin/flume-ng agent --conf ./conf/ -f conf/twitter.conf -Dflume.root.logger=DEBUG,console -n TwitterAgent Konsol Çıktısı: 2020-12-14 11:38:08,662 (conf-file-poller-0) [ERROR - org.apache.flume.node.PollingPropertiesFileConfigurationProvider$FileWatcherRunnable.run(PollingPropertiesFileConfigurationProvider.java:154)] Unhandled error java.lang.NoSuchMethodError: 'boolean twitter4j.conf.Configuration.isStallWarningsEnabled()' at twitter4j.TwitterStreamImpl.<init>(TwitterStreamImpl.java:60) at twitter4j.TwitterStreamFactory.<clinit>(TwitterStreamFactory.java:40) at org.apache.flume.source.twitter.TwitterSource.configure(TwitterSource.java:110) at org.apache.flume.conf.Configurables.configure(Configurables.java:41) at org.apache.flume.node.AbstractConfigurationProvider.loadSources(AbstractConfigurationProvider.java:325) at org.apache.flume.node.AbstractConfigurationProvider.getConfiguration(AbstractConfigurationProvider.java:105) at org.apache.flume.node.PollingPropertiesFileConfigurationProvider$FileWatcherRunnable.run(PollingPropertiesFileConfigurationProvider.java:145) at java.base/java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:515) at java.base/java.util.concurrent.FutureTask.runAndReset(FutureTask.java:305) at java.base/java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:305) at java.base/java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1128) at java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628) at java.base/java.lang.Thread.run(Thread.java:834) flume-env.sh: flume-sources-1.0-SNAPSHOT.jar dosyasını manuel olarak flume/lib içerisine ekledim. export JAVA_HOME=/usr/lib/jvm/default-java export JAVA_OPTS="-Xms500m -Xmx2000m -Dcom.sun.management.jmxremote" # export JAVA_OPTS="$JAVA_OPTS -Dorg.apache.flume.log.rawdata=true -Dorg.apache.flume.log.printconfig=true " FLUME_CLASSPATH="/home/jb/flume/lib/flume-sources-1.0-SNAPSHOT.jar" twitter.conf: # Mevcut agent üzerindeki bileşenlerin adlandırılması. TwitterAgent.sources = Twitter TwitterAgent.channels = MemChannel TwitterAgent.sinks = HDFS # Source'ın tanımlanması/konfigürasyonu TwitterAgent.sources.Twitter.type = org.apache.flume.source.twitter.TwitterSource TwitterAgent.sources.Twitter.consumerKey = xxx TwitterAgent.sources.Twitter.consumerSecret = xxx TwitterAgent.sources.Twitter.accessToken = xxx TwitterAgent.sources.Twitter.accessTokenSecret = xxx TwitterAgent.sources.Twitter.keywords = tutorials point,java, bigdata, mapreduce, mahout, hbase, nosql # Sink'in tanımlanması/konfigürasyonu TwitterAgent.sinks.HDFS.type = hdfs TwitterAgent.sinks.HDFS.hdfs.path = hdfs://localhost:9000/user/Hadoop/twitter_data/ TwitterAgent.sinks.HDFS.hdfs.fileType = DataStream TwitterAgent.sinks.HDFS.hdfs.writeFormat = Text TwitterAgent.sinks.HDFS.hdfs.batchSize = 1000 TwitterAgent.sinks.HDFS.hdfs.rollSize = 0 TwitterAgent.sinks.HDFS.hdfs.rollCount = 10000 TwitterAgent.sinks.HDFS.hdfs.minBlockReplicas = 1 # Channel'ın tanımlanması/konfigürasyonu TwitterAgent.channels.MemChannel.type = memory TwitterAgent.channels.MemChannel.capacity = 100 TwitterAgent.channels.MemChannel.transactionCapacity = 100 # Kaynak ve sink'in channel ile ilişkilendirilmesi TwitterAgent.sources.Twitter.channels = MemChannel TwitterAgent.sinks.HDFS.channel = MemChannel OS: Ubuntu Flume: v1.9.0 Hadoop: v3.3.0
Çalışmasını sağlamayı başardım. Bilmek isteyenler için, lütfen burayı okuyun. Öncelikle, Flume sürümünü değiştirin. Ben şu anda flume 1.7.0 kullanıyorum: https://flume.apache.org/releases/1.7.0.html. Ancak belki daha yeni bir sürüm de çalışır, bozmak istemedim :) İkinci adım olarak, bu repoyu klonlayın: https://github.com/cloudera/cdh-twitter-example. İçerisinde bir flume.conf dosyası var. Ben bunu şöyle yapılandırdım: # Licensed to the Apache Software Foundation (ASF) under one # or more contributor license agreements. See the NOTICE file # distributed with this work for additional information # regarding copyright ownership. The ASF licenses this file # to you under the Apache License, Version 2.0 (the # "License"); you may not use this file except in compliance # with the License. You may obtain a copy of the License at # # http://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, # software distributed under the License is distributed on an # "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY # KIND, either express or implied. See the License for the # specific language governing permissions and limitations # under the License. # The configuration file needs to define the sources, # the channels and the sinks. # Sources, channels and sinks are defined per agent, # in this case called 'TwitterAgent' TwitterAgent.sources = Twitter TwitterAgent.channels = MemChannel TwitterAgent.sinks = HDFS TwitterAgent.sources.Twitter.type = org.apache.flume.source.twitter.TwitterSource TwitterAgent.sources.Twitter.channels = MemChannel TwitterAgent.sources.Twitter.consumerKey = xx TwitterAgent.sources.Twitter.consumerSecret = xx TwitterAgent.sources.Twitter.accessToken = xx TwitterAgent.sources.Twitter.accessTokenSecret = xx TwitterAgent.sources.Twitter.keywords = hadoop, bigdata TwitterAgent.sources.Twitter.locations = -54.5247541978, 2.05338918702, 9.56001631027, 51.1485061713 TwitterAgent.sources.Twitter.language = fr TwitterAgent.sinks.HDFS.channel = MemChannel TwitterAgent.sinks.HDFS.type = hdfs TwitterAgent.sinks.HDFS.hdfs.path = hdfs://localhost:9000/user/Hadoop/twitter_data/%Y/%m/%d/%H/ #It specifies the File format. File formats that are currently supported are SequenceFile, DataStream or CompressedStream. #The DataStream will not compress the output file and please don’t set codeC. The CompressedStream requires set hdfs.codeC with an available codeC TwitterAgent.sinks.HDFS.hdfs.fileType = DataStream TwitterAgent.sinks.HDFS.hdfs.writeFormat = Text # It specifies the suffix to append to file. For eg, .avro TwitterAgent.sinks.HDFS.hdfs.fileSuffix = .json #It specifies the number of events written to file before it is flushed to HDFS. TwitterAgent.sinks.HDFS.hdfs.batchSize = 10000 # It specifies the file size to trigger roll, in bytes. If it is equal to 0 then it means never roll based on file size. TwitterAgent.sinks.HDFS.hdfs.rollSize = 0 #It specifies the number of events written to the file before it rolled. If it is equal to 0 then it means never roll based on the number of events. TwitterAgent.sinks.HDFS.hdfs.rollCount = 0 #It specifies the number of seconds to wait before rolling the current file. If it is equal to 0 then it means never roll based on the time interval. TwitterAgent.sinks.HDFS.hdfs.rollInterval = 60 TwitterAgent.sinks.HDFS.hdfs.callTimeout = 180000 TwitterAgent.sinks.HDFS.hdfs.useLocalTimeStamp = true TwitterAgent.channels.MemChannel.type = memory TwitterAgent.channels.MemChannel.capacity = 10000 TwitterAgent.channels.MemChannel.transactionCapacity = 1000 Sonra pom.xml dosyasını (sürümünü) değiştirin: <dependency> <groupId>org.twitter4j</groupId> <artifactId>twitter4j-stream</artifactId> <version>3.0.3</version> </dependency> Maven ile paketleyin cd flume-sources mvn package Bu şu dosyayı oluşturur: target/flume-sources-1.0-SNAPSHOT.jar Bunu <YOUR_FLUME_HOME>/lib klasörüne kopyalayın cp ./target/flume-sources-1.0-SNAPSHOT.jar ~/flume/lib Daha önce gösterdiğim dosyada CLASSPATH'i şöyle değiştirdim: FLUME_CLASSPATH="/home/jb/flume/lib/flume-sources-1.0-SNAPSHOT.jar" conf/flume.conf dosyasını da, az önce yazdığımızı <YOUR_FLUME_HOME>/conf klasörüne kopyalayın. Üçüncü olarak, lib/ altında twitter4j-core.jar, media-support.jar ve stream.jar dosyalarının 3.0.3 sürümünde olup olmadığını kontrol edin. Eğer değilse, indirin. Ve son olarak: cd $FLUME_HOME bin/flume-ng agent --conf ./conf/ -f ./conf/flume.conf -Dflume.root.logger=INFO,console -n TwitterAgent Halleluja: 2020-12-18 02:48:38,805 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 100 docs 2020-12-18 02:48:40,777 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 200 docs 2020-12-18 02:48:42,017 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 300 docs 2020-12-18 02:48:44,772 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 400 docs 2020-12-18 02:48:46,779 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 500 docs 2020-12-18 02:48:47,875 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 600 docs 2020-12-18 02:48:49,852 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 700 docs 2020-12-18 02:48:52,789 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 800 docs 2020-12-18 02:48:54,791 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 900 docs 2020-12-18 02:48:56,805 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.onStatus(TwitterSource.java:173)] Processed 1 000 docs 2020-12-18 02:48:56,805 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:295)] Total docs indexed: 1 000, total skipped docs: 0 2020-12-18 02:48:56,805 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:297)] 47 docs/second 2020-12-18 02:48:56,805 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:299)] Run took 21 seconds and processed: 2020-12-18 02:48:56,806 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:301)] 0,013 MB/sec sent to index 2020-12-18 02:48:56,807 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:303)] 0,266 MB text sent to index 2020-12-18 02:48:56,807 (Twitter4J Async Dispatcher[0]) [INFO - org.apache.flume.source.twitter.TwitterSource.logStats(TwitterSource.java:305)] There were 0 exceptions ignored:
İki SQL sorgusunun sonucunu nasıl birleştiririm? Aşağıdaki iki sorguyu tasarladım ve bunları left outer join ile birleştirerek istediğim sonucu alabiliyorum, fakat acaba aynı sonucu almak için tek bir sorgu yazmanın bir yolu var mı? Bunu nasıl basitleştirebilirim? İlk sorgu, projede çalışmış toplam kişi sayısını getiriyor, ikinci sorgu ise yalnızca farklı bir ofise bağlı olan, projede çalışmış kişileri gösteriyor. İlk Sorgu SELECT VisitDate = LEFT(Datename(month,v.VisitDate),3) ,COUNT( distinct i.InspectorID) AS TotalUsed FROM Visits v INNER JOIN InspectionScope insp ON insp.AssignmentID = v.AssignmentID INNER JOIN Assignments a ON a.AssignmentID = insp.AssignmentID INNER JOIN Inspectors i ON i.InspectorID = insp.InspectorID WHERE a.ClientID IN (22,33) Group by Datename(month,v.VisitDate) İkinci Sorgu SELECT VisitDate = LEFT(Datename(month,v.VisitDate),3) ,COUNT( distinct i.InspectorID) AS TotalContractorUsed FROM Visits v INNER JOIN InspectionScope insp ON insp.AssignmentID = v.AssignmentID INNER JOIN Assignments a ON a.AssignmentID = insp.AssignmentID INNER JOIN Inspectors i ON i.InspectorID = insp.InspectorID WHERE a.ClientID IN (22,33) **AND i.OfficeID IN (5)** Group by Datename(month,v.VisitDate)
Tek bir sorguda koşullu toplama (conditional aggregation) kullanabilirsiniz: SELECT VisitDate = LEFT(Datename(month,v.VisitDate),3), COUNT( distinct i.InspectorID) AS TotalUsed, COUNT(distinct case when i.OfficeID IN (5) then i.InspectorID end) AS TotalContractorUsed FROM Visits v INNER JOIN InspectionScope insp ON insp.AssignmentID = v.AssignmentID INNER JOIN Assignments a ON a.AssignmentID = insp.AssignmentID INNER JOIN Inspectors i ON i.InspectorID = insp.InspectorID WHERE a.ClientID IN (22,33) Group by Datename(month,v.VisitDate); A: Sorguyu çalıştırmadım. Lütfen kontrol edin. ;WITH CTE (VisitDate, TotalUsed) AS (SELECT VisitDate = LEFT(Datename(month,v.VisitDate),3) ,COUNT( distinct i.InspectorID) AS TotalUsed FROM Visits v INNER JOIN InspectionScope insp ON insp.AssignmentID = v.AssignmentID INNER JOIN Assignments a ON a.AssignmentID = insp.AssignmentID INNER JOIN Inspectors i ON i.InspectorID = insp.InspectorID WHERE a.ClientID IN (22,33) Group by Datename(month,v.VisitDate)) SELECT CTE.VisitDate ,CTE.TotalUsed ,ISNULL(COUNT(distinct i.InspectorID),0) AS TotalContractorUsed FROM CTE LEFT JOIN Visits v ON CTE.VisitDate = v.VisitDate INNER JOIN InspectionScope insp ON insp.AssignmentID = v.AssignmentID INNER JOIN Assignments a ON a.AssignmentID = insp.AssignmentID INNER JOIN Inspectors i ON i.InspectorID = insp.InspectorID WHERE a.ClientID IN (22,33) AND i.OfficeID IN (5) Group by Datename(month,v.VisitDate)
veritabanına veri eklenmiyor c# winform VS 2013 kullanıyorum ve Windows tabanlı uygulamam için service base database kullanıyorum. Bir çalışan yönetim uygulaması oluşturuyorum, veri eklerken bana Records inserted mesajı gösteriyor ama veri veritabanında güncellenmiyor, yardımcı olabilecek var mı... void metroButton1_Click(object sender, EventArgs e) { try { for (int i = 0; i < dataGridView1.Rows.Count - 1; i++) { con = new SqlConnection(cs.DBcon); using (SqlCommand cmd = new SqlCommand("INSERT INTO tbl_employee VALUES(@Designation, @Date, @Employee_name,@Leave,@L_Reason,@Performance,@Payment,@Petrol,@Grand_Total)", con)) { cmd.Parameters.AddWithValue("@Designation", dataGridView1.Rows[i].Cells[0].Value); cmd.Parameters.AddWithValue("@Date", dataGridView1.Rows[i].Cells[1].Value); cmd.Parameters.AddWithValue("@Employee_name", dataGridView1.Rows[i].Cells[2].Value); cmd.Parameters.AddWithValue("@Leave", dataGridView1.Rows[i].Cells[3].Value); cmd.Parameters.AddWithValue("@L_Reason", dataGridView1.Rows[i].Cells[4].Value); cmd.Parameters.AddWithValue("@Performance", dataGridView1.Rows[i].Cells[5].Value); cmd.Parameters.AddWithValue("@Payment", dataGridView1.Rows[i].Cells[6].Value); cmd.Parameters.AddWithValue("@Petrol", dataGridView1.Rows[i].Cells[7].Value); cmd.Parameters.AddWithValue("@Grand_Total", dataGridView1.Rows[i].Cells[8].Value); con.Open(); cmd.ExecuteNonQuery(); con.Close(); } } MessageBox.Show("Records inserted."); } catch (Exception ex) { MessageBox.Show(ex.Message); } }
Şunu öneriyorum: ExecuteNonQuery'den önce bir con.BeginTransaction() ve ExecuteNonQuery'den sonra bir con.Commit() ekleyin. A: Komut örneğini oluşturmadan önce bağlantıyı açmalısınız, şöyle: void metroButton1_Click(object sender, EventArgs e) { try { con = new SqlConnection(cs.DBcon); con.Open(); //Bağlantıyı aç for (int i = 0; i < dataGridView1.Rows.Count - 1; i++) { using (SqlCommand cmd = new SqlCommand("INSERT INTO tbl_employee VALUES(@Designation, @Date, @Employee_name,@Leave,@L_Reason,@Performance,@Payment,@Petrol,@Grand_Total)", con)) //Şimdi komutu oluştur { cmd.Parameters.AddWithValue("@Designation", dataGridView1.Rows[i].Cells[0].Value); cmd.Parameters.AddWithValue("@Date", dataGridView1.Rows[i].Cells[1].Value); cmd.Parameters.AddWithValue("@Employee_name", dataGridView1.Rows[i].Cells[2].Value); cmd.Parameters.AddWithValue("@Leave", dataGridView1.Rows[i].Cells[3].Value); cmd.Parameters.AddWithValue("@L_Reason", dataGridView1.Rows[i].Cells[4].Value); cmd.Parameters.AddWithValue("@Performance", dataGridView1.Rows[i].Cells[5].Value); cmd.Parameters.AddWithValue("@Payment", dataGridView1.Rows[i].Cells[6].Value); cmd.Parameters.AddWithValue("@Petrol", dataGridView1.Rows[i].Cells[7].Value); cmd.Parameters.AddWithValue("@Grand_Total", dataGridView1.Rows[i].Cells[8].Value); cmd.ExecuteNonQuery(); } } con.Close(); MessageBox.Show("Kayıtlar eklendi."); } catch (Exception ex) { MessageBox.Show(ex.Message); } } A: Her şeyi bağlantı içinde aşağıdaki gibi gerçekleştirin void metroButton1_Click(object sender, EventArgs e) { try { for (int i = 0; i < dataGridView1.Rows.Count - 1; i++) { using(SqlConnection connection = new SqlConnection(cs.DBcon)) { connection.Open(); cmd.Parameters.AddWithValue("@Designation", dataGridView1.Rows[i].Cells[0].Value); cmd.Parameters.AddWithValue("@Date", dataGridView1.Rows[i].Cells[1].Value); cmd.Parameters.AddWithValue("@Employee_name", dataGridView1.Rows[i].Cells[2].Value); cmd.Parameters.AddWithValue("@Leave", dataGridView1.Rows[i].Cells[3].Value); cmd.Parameters.AddWithValue("@L_Reason", dataGridView1.Rows[i].Cells[4].Value); cmd.Parameters.AddWithValue("@Performance", dataGridView1.Rows[i].Cells[5].Value); cmd.Parameters.AddWithValue("@Payment", dataGridView1.Rows[i].Cells[6].Value); cmd.Parameters.AddWithValue("@Petrol", dataGridView1.Rows[i].Cells[7].Value); cmd.Parameters.AddWithValue("@Grand_Total", dataGridView1.Rows[i].Cells[8].Value); cmd.ExecuteNonQuery(); connection.Close(); } } MessageBox.Show("Kayıtlar eklendi."); } catch (Exception ex) { MessageBox.Show(ex.Message); } }
Linux Kernel GIT Deposu Üzerinden Dosyaları Doğrudan Nasıl Karşılaştırabilirim? Dosya / dizinleri Linux Kernel GIT deposundan doğrudan karşılaştırmak istiyorum, tüm kaynak kodunu indirmek zorunda kalmadan. Özellikle iki olası çözümle ilgileniyorum: * *Bir web tarayıcısı ( firefox ) üzerinden diff işlemlerini yapabilme *Ubuntu için uzaktaki dosyalar arasında diff alabilen bir GUI aracı *2. seçeneğin nasıl kurulacağı ile ilgili bir eğitim Edit Aradığım şeye bir örnek olarak, yukarıdaki işlemler için daha önce bir CVS repo üzerinde CrossVC kullanıyordum.
kernel.org üzerindeki Gitweb, istediğiniz herhangi iki commit arasındaki farkı görüntülemenize imkan tanır. Örneğin, v2.6.32-rc6 ile v2.6.32-rc7 arasındaki farkı aşağıdaki bağlantıda görebilirsiniz: http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=commitdiff;hp=refs/tags/v2.6.32-rc6;h=refs/tags/v2.6.32-rc7 (Uygulayabileceğiniz sade yama (patch) dosyası için patch bağlantısını kullanabilirsiniz.) Ayrıca, dosyaların herhangi iki versiyonu veya farklı dosyaların herhangi iki farklı versiyonu arasındaki farkı da görebilirsiniz; örneğin: geçmiş görünümünde current bağlantısındaki fark. Ne yazık ki ne Git ile birlikte dağıtılan resmi gitweb sürümünde, ne de kernel.org tarafından kullanılan fork sürümünde, herhangi iki commit arasında fark gösteren bağlantılar otomatik olarak yaratılmıyor. Bu yüzden, istediğiniz URL’leri kendiniz oluşturmanız (manuel olarak oluşturmanız) gerekecek. commitdiff görünümü (action) için ihtiyacınız olan parametreler 'h' (hash) ve 'hp' (hash parent); blobdiff görünümü için ise 'hb' (hash base) ve 'hpb' (hash parent base), ayrıca 'f' (filename) ve 'fp' (file parent). Şablonlar * *İki keyfi commit arasındaki diff için (komut satırındaki git diff A B’nin eşdeğeri) http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=commitdiff;hp=A;h=B *Aynı dosyanın iki sürümü arasındaki diff için (git diff A B <filename> komutunun eşdeğeri). http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=blobdiff;f=<filename>;hpb=A;hp=B Not: core gitweb’de (fakat halihazırda kernel.org’da kullanılan forkta değil) path_info şeklini kullanabilirsiniz, örneğin: http://repo.or.cz/w/git.git/blobdiff/A..B:/<filename> Nasıl bulunur * *Web arayüzünde, örneğin bir merge commit’i bulun https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=1c5aefb5b12a90e29866c960a57c1f8f75def617 *Bir commit ile ikinci parent’ı arasındaki diff’in bağlantısını bulun, örneğin https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/diff/?id=1c5aefb5b12a90e29866c960a57c1f8f75def617&id2=54a217887a7b658e2650c3feff22756ab80c7339 *Karşılaştırılan commit’lerin SHA-1 bilgisini, karşılaştırmak istediğiniz revizyon adları veya revizyon tanımlayıcılarıyla değiştirin; örneğin, v3.15-rc8 ile v3.15-rc7 arasındaki diff’i oluşturmak için https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/diff/?id=v3.15-rc8&id2=v3.15-rc7 veya patch (rawdiff) üretmek için https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/rawdiff/?id=v3.15-rc8&id2=v3.15-rc7 A: diff’i hangi sistem oluşturuyorsa (ister web sunucunuz ister lokal sisteminiz olsun), bu sistemde git reposunun tam bir kopyası (clone) olması gerekir. Yani “remote diff” yapamazsınız. Eğer tüm kernel’ı git clone ile çekmek istemiyorsanız, neden tarayıcınızda http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=summary adresine bakmıyorsunuz? A: 2013’ten bu yana, kernel.org web sitesi yenilendi ve depo gezintisi için cgit kullanılmakta. İki tag arasındaki diff için cgit URL’sine bir örnek: https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/diff/?id=v3.19-rc2&id2=v3.19-rc1&dt=2 Bu aynı zamanda Git 2.38’in (2022 3.Çeyrek) gitweb’i neden değiştirdiğinin sebebidir: gitweb, kernel.org’daki projelere özgü eski bir URL kısaltıcıya sahipti. Bu özellik önceden çalışıyordu (artık çalışmıyor) ve kaldırıldı. commit 75707da (26 Tem 2022) tarafından Julien Rouhaud (rjuju) ile ilgili olarak bakınız. (Junio C Hamano -- gitster -- tarafından commit dcdcc37 ile birleştirildi, 05 Ağu 2022) gitweb: remove title shortening heuristics Signed-off-by: Julien Rouhaud Bu heuristics’ler artık çok eski ve kernel projesine çok özgü, kernel.org dışında bir yerde kullanışlı değiller. kernel.org artık gitweb kullanmadığından ve en az bir proje yanlış davranıştan şikayet ettiğinden, bunları tamamen kaldırın.
Array için şema tanımını jsonloader ile nasıl yapabilirim? Elephantbird projesini kullanarak bir json dosyasını pig'e yüklüyorum. Fakat yükleme sırasında şemayı nasıl tanımlayacağım konusunda emin değilim. Bu konuda bir açıklama da bulamadım. veri: {"id":22522,"name":"Product1","colors":["Red","Blue"],"sizes":["S","M"]} {"id":22523,"name":"Product2","colors":["White","Blue"],"sizes":["M"]} kod: feed = LOAD '$INPUT' USING com.twitter.elephantbird.pig.load.JsonLoader() AS products_json; extracted_products = FOREACH feed GENERATE products_json#'id' AS id, products_json#'name' AS name, products_json#'colors' AS colors, products_json#'sizes' AS sizes; describe extracted_products; sonuç: extracted_products: {id: chararray,name: bytearray,colors: bytearray,sizes: bytearray} onlara (int,string,array,array) şeklinde doğru şemayı nasıl verebilirim ve array elemanlarını satırlara nasıl açabilirim (flatten)? şimdiden teşekkürler
json dizisini tuple'a dönüştürmek için: feed = LOAD '$INPUT' USING com.twitter.elephantbird.pig.load.JsonLoader() AS products_json; ürünleri çıkarmak için: extracted_products = FOREACH feed GENERATE products_json#'id' AS id:chararray, products_json#'name' AS name:chararray, products_json#'colors' AS colors:{t:(i:chararray)}, products_json#'sizes' AS sizes:{t:(i:chararray)}; bir tuple'ı düzleştirmek için: flattened = foreach extracted_products generate id,flatten(colors);
Zaman Damgası (Timestamp) Nasıl Formatlanır Benim tablomda (myTable) col1 adında bir sütun var ve bu sütun varchar tipinde, buraya örneğin şu şekilde bir timestamp eklemem gerekiyor: 09-MAY-11 10.23.12.0000 AM. Şimdi lütfen bana şunları söyle: * *Yukarıdaki formatta sysdate alarak myTable içerisine nasıl insert yapabilirim... *col1'den veriyi aynı timestamp formatında nasıl geri çağırabilirim...
INSERT: insert into myTable (col1) VALUES (to_char(systimestamp, 'dd-mon-yyyy hh.mi.ss.ff4 AM') ); SELECT: select to_timestamp(col1, 'dd-mon-yyyy hh.mi.ss.ff4 AM') from myTable ; Ancak veriyi doğrudan timestamp olarak saklamak çok daha iyidir. Bu şekilde değerleri doğrudan karşılaştırabilir veya düzenleyebilirsiniz. create table myTable1( col1 timestamp default systimestamp);
RobotFramework - Aynı anda 2 Tarayıcı Sekmesini Yönetmek ve Test Etmek Şöyle bir problemim var: Web uygulamamın bir fonksiyonelliğini test etmem gerekiyor ve bunun için 2 sekmenin açık olması gerekiyor. Sekme 1’de bir şeyi güncellediğimde, Sekme 2’nin yenilenip yenilenmediğini kontrol etmem lazım. Bunu Press key anahtar kelimesini kullanarak yapmaya çalışıyorum. Body’yi hedef alıyorum ve yeni bir sekme açmak için CTRL+T’nin ASCII numarasını kullanıyorum, fakat yeni bir tarayıcı penceresi açılıyor, yeni bir sekme açılmıyor. En güncel Chrome sürümünü kullanıyorum. Ayrıca \\09 kullanmayı da denedim, ama o da aynı sonucu veriyor. Press Key tag=body \\20 Daha sonra Select Window MAIN anahtar kelimesini kullanarak pencereye geri dönmeyi deniyorum ama bu da işe yaramıyor. SORU: RobotFramework ve SeleniumLibrary ile aynı anda 2 sekme açıp bunları nasıl test edebilirim?
Bence testiniz, iki sekmeli bir pencere ile olduğu kadar, iki ayrı pencereyle de aynı derecede geçerli olurdu. open browser keyword'ünü birden fazla kez çağırabilirsiniz; böylece her pencereye kendine özgü bir takma ad (alias) verebilirsiniz. Sonrasında, switch browser keyword'ü ve uygun takma adı kullanarak pencereler arasında geçiş yapabilirsiniz. Örnek *** Settings *** Library SeleniumLibrary Suite Teardown close all browsers *** Variables *** ${browser} chrome *** Test cases *** Example using two windows open browser http://www.example.com ${browser} alias=tab1 open browser http://www.w3c.org ${browser} alias=tab2 switch browser tab1 location should be http://www.example.com/ switch browser tab2 location should be https://www.w3.org/
Java 8 Collectors ile Üç Katmanlı (Triple-Nested) Bir Map Nasıl Toplanır? Elimde şu şekilde bir map var: Map<LocalDate, Map<Integer, Map<EHourQuarter, Double>>> EHourQuarter bir enum: public enum EHourQuarter { FIRST(0, 14, 15), SECOND(15, 29, 30), THIRD(30, 44, 45), FOURTH(45, 59, 60); private Integer start; private Integer end; private Integer value;//bu UI amaçlı } Aşağıdaki gibi değerler içeriyor: {2020-07-07 -> {0 -> {EHourQuarter.FIRST -> 5.5, EHourQuarter.SECOND -> 10.2, ...}, 1 -> {EHourQuarter.FIRST -> 33.2, EHourQuarter.SECOND -> 30.1, ...}, ...}, 2020-07-08 -> {0 -> {EHourQuarter.FIRST -> 5.5, EHourQuarter.SECOND -> 10.2, ...}, 1 -> {EHourQuarter.FIRST -> 33.2, EHourQuarter.SECOND -> 30.1, ...}, ... } Yani bu, LocalDate tipinde bir anahtarın, Integer türünde saat değerlerinin (0'dan 23'e kadar) ve EHourQuarter üzerinden Double tipinde değerlerin tutulduğu iç içe geçmiş bir map yapısıdır. Benim ihtiyacım ise, tüm tarihlerdeki verileri birleştirerek her bir saatte (hour) ve çeyrekte (EHourQuarter), o çeyreğe karşılık gelen Double değerlerin toplamlarının tutulduğu bir Map<Integer(hour), Map<EHourQuarter, Double>> elde etmek. Yani, örneğin 2020-07-07 ile 2020-07-10 arasında (toplam 4 gün), her gün saat 0’da ve her bir EHourQuarter için değer 5 ise; sonuç haritasında saat 0'ın altında her çeyrek için değer 20 olmalı. Ek olarak, eğer bunu yaparken aşağıdaki DTO listesinin oluşmasına da yardımcı olursanız çok makbule geçerdi: public class QuarterlyOccupancyDTO { private Integer hour; private Integer minute;//bu, EHourQuarter'ın value property'sidir private Double occupancy; } Sonuçta, DTO listesi tüm tarihlerin saat ve dakika (EHourQuarter’ın value property’si) bazında gruplanmış/toplanmış toplam değerlerini içermeli. Bir örnek: NOT: map birden fazla tarih içerebilir ve amaç tümünü gruplayıp/toplamaktır. Aşağıdaki map’i ele alalım: { "2020-06-26":{ "0":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "1":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "2":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "3":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "4":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "5":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "6":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "7":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "8":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "9":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "10":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "11":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "12":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "13":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "14":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "15":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "16":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "17":{ "FOURTH":5.0, "FIRST":5.0, "THIRD":5.0, "SECOND":5.0 }, "18":{ "FOURTH":0.0, "FIRST":5.0, "THIRD":0.0, "SECOND":0.0 }, "19":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "20":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "21":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "22":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 }, "23":{ "FOURTH":0.0, "FIRST":0.0, "THIRD":0.0, "SECOND":0.0 } } } Cevap olarak şöyle bir liste oluşmalı: [ { "hour":0, "minute":15, "occupancy":0.0 }, { "hour":0, "minute":30, "occupancy":0.0 }, { "hour":0, "minute":45, "occupancy":0.0 }, { "hour":0, "minute":60, "occupancy":0.0 }, { "hour":1, "minute":15, "occupancy":0.0 }, { "hour":1, "minute":30, "occupancy":0.0 }, { "hour":1, "minute":45, "occupancy":0.0 }, { "hour":1, "minute":60, "occupancy":0.0 }, { "hour":2, "minute":15, "occupancy":0.0 }, { "hour":2, "minute":30, "occupancy":0.0 }, { "hour":2, "minute":45, "occupancy":0.0 }, { "hour":2, "minute":60, "occupancy":0.0 }, { "hour":3, "minute":15, "occupancy":0.0 }, { "hour":3, "minute":30, "occupancy":0.0 }, { "hour":3, "minute":45, "occupancy":0.0 }, { "hour":3, "minute":60, "occupancy":0.0 }, { "hour":4, "minute":15, "occupancy":0.0 }, { "hour":4, "minute":30, "occupancy":0.0 }, { "hour":4, "minute":45, "occupancy":0.0 }, { "hour":4, "minute":60, "occupancy":0.0 }, { "hour":5, "minute":15, "occupancy":0.0 }, { "hour":5, "minute":30, "occupancy":0.0 }, { "hour":5, "minute":45, "occupancy":0.0 }, { "hour":5, "minute":60, "occupancy":0.0 }, { "hour":6, "minute":15, "occupancy":0.0 }, { "hour":6, "minute":30, "occupancy":0.0 }, { "hour":6, "minute":45, "occupancy":0.0 }, { "hour":6, "minute":60, "occupancy":0.0 }, { "hour":7, "minute":15, "occupancy":0.0 }, { "hour":7, "minute":30, "occupancy":0.0 }, { "hour":7, "minute":45, "occupancy":0.0 }, { "hour":7, "minute":60, "occupancy":0.0 }, { "hour":8, "minute":15, "occupancy":0.0 }, { "hour":8, "minute":30, "occupancy":0.0 }, { "hour":8, "minute":45, "occupancy":0.0 }, { "hour":8, "minute":60, "occupancy":0.0 }, { "hour":9, "minute":15, "occupancy":5.0 }, { "hour":9, "minute":30, "occupancy":5.0 }, { "hour":9, "minute":45, "occupancy":5.0 }, { "hour":9, "minute":60, "occupancy":5.0 }, { "hour":10, "minute":15, "occupancy":5.0 }, { "hour":10, "minute":30, "occupancy":5.0 }, { "hour":10, "minute":45, "occupancy":5.0 }, { "hour":10, "minute":60, "occupancy":5.0 }, { "hour":11, "minute":15, "occupancy":5.0 }, { "hour":11, "minute":30, "occupancy":5.0 }, { "hour":11, "minute":45, "occupancy":5.0 }, { "hour":11, "minute":60, "occupancy":5.0 }, { "hour":12, "minute":15, "occupancy":5.0 }, { "hour":12, "minute":30, "occupancy":5.0 }, { "hour":12, "minute":45, "occupancy":5.0 }, { "hour":12, "minute":60, "occupancy":5.0 }, { "hour":13, "minute":15, "occupancy":5.0 }, { "hour":13, "minute":30, "occupancy":5.0 }, { "hour":13, "minute":45, "occupancy":5.0 }, { "hour":13, "minute":60, "occupancy":5.0 }, { "hour":14, "minute":15, "occupancy":5.0 }, { "hour":14, "minute":30, "occupancy":5.0 }, { "hour":14, "minute":45, "occupancy":5.0 }, { "hour":14, "minute":60, "occupancy":5.0 }, { "hour":15, "minute":15, "occupancy":5.0 }, { "hour":15, "minute":30, "occupancy":5.0 }, { "hour":15, "minute":45, "occupancy":5.0 }, { "hour":15, "minute":60, "occupancy":5.0 }, { "hour":16, "minute":15, "occupancy":5.0 }, { "hour":16, "minute":30, "occupancy":5.0 }, { "hour":16, "minute":45, "occupancy":5.0 }, { "hour":16, "minute":60, "occupancy":5.0 }, { "hour":17, "minute":15, "occupancy":5.0 }, { "hour":17, "minute":30, "occupancy":5.0 }, { "hour":17, "minute":45, "occupancy":5.0 }, { "hour":17, "minute":60, "occupancy":5.0 }, { "hour":18, "minute":15, "occupancy":5.0 }, { "hour":18, "minute":30, "occupancy":0.0 }, { "hour":18, "minute":45, "occupancy":0.0 }, { "hour":18, "minute":60, "occupancy":0.0 }, { "hour":19, "minute":15, "occupancy":0.0 }, { "hour":19, "minute":30, "occupancy":0.0 }, { "hour":19, "minute":45, "occupancy":0.0 }, { "hour":19, "minute":60, "occupancy":0.0 }, { "hour":20, "minute":15, "occupancy":0.0 }, { "hour":20, "minute":30, "occupancy":0.0 }, { "hour":20, "minute":45, "occupancy":0.0 }, { "hour":20, "minute":60, "occupancy":0.0 }, { "hour":21, "minute":15, "occupancy":0.0 }, { "hour":21, "minute":30, "occupancy":0.0 }, { "hour":21, "minute":45, "occupancy":0.0 }, { "hour":21, "minute":60, "occupancy":0.0 }, { "hour":22, "minute":15, "occupancy":0.0 }, { "hour":22, "minute":30, "occupancy":0.0 }, { "hour":22, "minute":45, "occupancy":0.0 }, { "hour":22, "minute":60, "occupancy":0.0 }, { "hour":23, "minute":15, "occupancy":0.0 }, { "hour":23, "minute":30, "occupancy":0.0 }, { "hour":23, "minute":45, "occupancy":0.0 }, { "hour":23, "minute":60, "occupancy":0.0 } ]
Önce flatMap kullanarak Stream<SimpleEntry<Integer, EHourQuarter>, Double> oluşturun, ardından toMap ile Map<SimpleEntry<Integer, EHourQuarter>, Double> olarak toplayın. Sonra DTO sınıfınıza map edin. List<QuarterlyOccupancyDTO> result = map.entrySet().stream() .flatMap(d -> d.getValue().entrySet().stream() .flatMap(h -> h.getValue().entrySet().stream().map( e -> new SimpleEntry<>(new SimpleEntry<>(h.getKey(), e.getKey()), e.getValue())))) .collect(Collectors.toMap(Map.Entry::getKey, Map.Entry::getValue, (a, b) -> a + b)) .entrySet() .stream() .map(m -> new QuarterlyOccupancyDTO(m.getKey().getKey(), m.getKey().getValue().getValue(), m.getValue())) .collect(Collectors.toList()); Not: Kodunuzun tamamını göstermediğiniz için bazı kısımlar çalışmayabilir. Tam kod burada A: Önce saat/çeyrek ikilisine göre occupancy’yi gruplandırıp toplayın (Nested flatMap kullanmaktan kaçının, kodun okunabilirliğini düşürür) Map<Entry<Integer, Integer>, Double> groups = map.entrySet() .stream() // Dıştaki map’i düzleştirin, çünkü günlerle ilgilenmiyorsunuz .flatMap(de -> de.getValue().entrySet().stream()) // Saat anahtarı ve çeyrek anahtarını tek bir anahtarda birleştirerek map’i düzleştirin .flatMap(he -> he.getValue() .entrySet() .stream() .map(qe -> new SimpleEntry<>(new SimpleEntry<>(he.getKey(), qe.getKey().getValue()), qe.getValue()))) // Her bir saat/çeyrek ikilisi için occupancy’yi toplayın .collect(groupingBy(Entry::getKey, summingDouble(Entry::getValue))); Sonrasında gruplandırılmış entry’leri DTO nesnelerinize map edin List<QuarterlyOccupancyDTO> list = groups.entrySet() .stream() .map(e -> new QuarterlyOccupancyDTO(e.getKey().getKey(), e.getKey().getValue(), e.getValue())) .collect(toList()); Başka bir saf fonksiyonel yaklaşım: (Tamamen fonksiyonel, ancak bana göre daha az okunabilir) Collection<QuarterlyOccupancyDTO> dtos = map.entrySet() .stream() // Dıştaki map’i düzleştirin, çünkü günlerle ilgilenmiyorsunuz .flatMap(de -> de.getValue().entrySet() .stream()) // Saat anahtarı ve çeyrek anahtarını tek bir anahtarda birleştirerek map’i düzleştirin .flatMap(he -> he.getValue() .entrySet() .stream() .map(qe -> new SimpleEntry<>(new SimpleEntry<>(he.getKey(), qe.getKey().getValue()), qe.getValue()))) // Her bir entry’yi bir DTO nesnesine map edin ve ardından her saat/çeyrek ikilisi için occupancy’yi birleştirerek toplayın .collect( groupingBy(Entry::getKey, mapping(e -> new QuarterlyOccupancyDTO(e.getKey().getKey(), e.getKey().getValue(), e.getValue()), reducing(new QuarterlyOccupancyDTO(0, 0, 0.0), (a, b) -> new QuarterlyOccupancyDTO(b.getHour(), b.getMinute(), a.getOccupancy() + b.getOccupancy()))))) .values();
Mercurial convert uzantısı uzaktaki Git deposundan çekemiyor Bir Git deposundan bir Hg deposuna çekmek için 'hg convert' yapmaya çalışıyorum. Şu anda Windows 7 bilgisayarımda Git kurulu değil; bu gerekli mi? TortoiseHG komut satırını kullanıyorum ve convert uzantısını aktifleştirdim ('hg help convert' sorunsuz çalışıyor). Denediğim komutun bir örneği: hg convert -s git -d hg https://github.com/mysticbob/glm.git gittest Bu, Github'da herkese açık bir depo, dolayısıyla oradan çevirebilmem gerekir. Adres de Github'ın indirme için kullanılmasını önerdiği adres. Aldığım hata mesajı ise şöyle: initializing destination gittest repository https://github.com/mysticbob/glm.git does not look like a Git repository Herhangi bir fikriniz var mı?
Eğer issue 1246'nın doğru olduğuna inanırsak, hg convert uzantısının çalışabilmesi için git'in yüklü olması gerekiyor. Git yüklü olsa bile, import sırasında başka problemlerle de karşılaşabilirsin; bu durumda şu alternatifleri değerlendirebilirsin: * *git reposunu svn reposuna çevirip, ardından bu svn reposunu mercurial'a import etmek *veya özellikle şu ifadeye yer veren hg-git mercurial eklentisini denemek: Bu eklenti tamamen Python ile yazılmıştır - herhangi bir Git binary bağımlılığı yoktur, sisteminizde Git'in yüklü olmasına gerek yoktur. (Fakat hg-git'in yeni 1.7+ Mercurial sürümleriyle uyumlu olup olmadığını bilmiyorum)
MYSQL TRIGGER ile DECLARE kullanarak değer atamak istiyorum. DECLARE kullanarak trigger içinde bir değer ayarlamak istiyorum. Trigger şu şekilde: CREATE DEFINER=`root`@`localhost` TRIGGER `update_queue_after_insert` AFTER INSERT ON `encounter_note` FOR EACH ROW DECLARE is_exist INT; SET is_exist = ( SELECT count(*) FROM practice_last_updated_module WHERE practice_id = NEW.practice_id ); IF NEW.enc_source = 'OP' THEN UPDATE practice_queue_list PQL SET PQL.vital_check = IF (NEW.vs_weight <> 0 OR NEW.vs_height <> 0 OR NEW. vs_temperature <> 0 OR LENGTH(NEW.vs_blood_pressure) > 0 <> NEW.vs_pulse <> 0 OR NEW.vs_respiration <> 0, 1, 0) WHERE PQL.encounter_id = NEW.id AND PQL.practice_place_id = NEW.practice_id; END IF; IF is_exist > 0 THEN UPDATE practice_last_updated_module SET encounter = UNIX_TIMESTAMP(NOW()) where practice_id = NEW.practice_id; ELSE: INSERT INTO practice_last_updated_module (practice_id, encounter) VALUES (NEW.practice_id, UNIX_TIMESTAMP(NOW())); END IF;" Fakat kaydederken hata veriyor Aşağıdaki sorgu başarısız oldu: "CREATE DEFINER=root@localhost TRIGGER update_queue_after_insert AFTER INSERT ON encounter_note FOR EACH ROW DECLARE is_exist INT; SET is_exist = ( SELECT count(*) FROM practice_last_updated_module WHERE Bu ifadede ne yanlış var?
13.6.1 BEGIN ... END Bileşik-Komut Sözdizimini kullanın. Deneyin (belki DELIMITER kullanmanız gerekebilir): DELIMITER // CREATE TRIGGER `update_queue_after_insert` AFTER INSERT ON `encounter_note` FOR EACH ROW BEGIN -- <- BEGIN DECLARE is_exist INT; SET is_exist = ( SELECT count(*) FROM practice_last_updated_module WHERE practice_id = NEW.practice_id ); IF NEW.enc_source = 'OP' THEN UPDATE practice_queue_list PQL SET PQL.vital_check = IF (NEW.vs_weight <> 0 OR NEW.vs_height <> 0 OR NEW.vs_temperature <> 0 OR LENGTH(NEW.vs_blood_pressure) > 0 <> NEW.vs_pulse <> 0 OR NEW.vs_respiration <> 0, 1, 0) WHERE PQL.encounter_id = NEW.id AND PQL.practice_place_id = NEW.practice_id; END IF; IF is_exist > 0 THEN UPDATE practice_last_updated_module SET encounter = UNIX_TIMESTAMP(NOW()) where practice_id = NEW.practice_id; -- ELSE: ELSE INSERT INTO practice_last_updated_module (practice_id, encounter) VALUES (NEW.practice_id, UNIX_TIMESTAMP(NOW())); END IF; END// -- <- END DELIMITER ;
Yan yana modda pencereleri bulmak "View Side By Side" ve "Synchronous Scrolling" özellikleri, iki tabloyu karşılaştırmayı her zamankinden daha kolay hale getirdi. Ancak, bir "Synchronous Switching tab" özelliği yok, bu yüzden eğer çalışma kitaplarından birinde başka bir sekmeye geçip kaydırmaya devam edersem, senkronize kaydırma biraz komik oluyor. Tabii, şikayet etmemeliyim, çünkü her şey manuel olarak yapılıyor ve bu özelliği akıllıca kullanmam gerek. Tembel bir geliştirici olarak, kendimi bundan kurtarmak için biraz kod yazmak istiyorum: Yan yana moddayken, eş pencere üzerinde çalışma sayfası geçişini otomatikleştiren bir macro yazabilir miyim? Bu süreç iki adıma ayrılıyor: - Bir pencerenin, büyük ihtimalle ActiveWindow’un, yan yana modda olduğunu nasıl anlarım? - Eğer öyleyse, bu pencerenin eşinin hangi pencere olduğunu nasıl anlarım? Araştırmamı yaptım. Görünüşe göre Excel bu konuda programlamaya çok da dostça yaklaşmıyor. 3 tane metodu var: - BreakSideBySide() - CompareSideBySideWith(WindowName) - ResetPositionsSideBySide() ve bu özellikle ilgili Windows koleksiyonunda yer alan 1 tane Boolean özelliği var: - SyncScrollingSideBySide Ancak bunlar sorularımı çözmek için yetersiz kalıyor. Bunu başarmanın bir yolunu bilen var mı? Yoksa, bu gerçekten imkansız mı? Şimdiden teşekkürler.
Bunu Workbook_SheetActivate etkinliğini kullanarak gerçekleştirebilirsiniz: http://msdn.microsoft.com/en-us/library/office/ff195710.aspx Eğer bu kodu ThisWorkbook nesnesine eklerseniz, her aktif çalışma sayfası değiştiğinde şu işlemler gerçekleşir: * *Tüm açık ve farklı ada sahip çalışma kitapları arasında gezinir *Yeni tıkladığınız çalışma sayfası ile aynı ada sahip bir sayfa arar *Diğer çalışma kitabındaki bu sayfayı etkinleştirir Private Sub Workbook_SheetActivate(ByVal Sh As Object) For i = 1 To Application.Workbooks.Count If Application.Workbooks(i).Name <> ThisWorkbook.Name Then Dim otherWB As Workbook Set otherWB = Application.Workbooks(i) otherWB.Sheets(Sh.Name).Activate End If Next End Sub Dikkat edin, bu kodun çalışabilmesi için ilgili çalışma sayfasının tüm açık çalışma kitaplarında bulunması gerekmektedir. Aksi halde bir hata oluşacaktır. Ancak hata denetimi ekleyerek, eşleşen çalışma sayfası bulunamayan kitapları kolayca görmezden gelebilirsiniz. Ek olarak, bu kodu yalnızca iki çalışma kitabı açıkken kullanmak en iyisi olacaktır. Sizin bahsettiğiniz diğer yöntemleri incelemedim, ancak yan yana modunda olan iki çalışma kitabını tanımlamanın bir yolu varsa, bu durumda döngü yapısı kaldırılıp kodunuzu daha da sade hale getirebilirsiniz.
Playground.js Çizim Yapmıyor Playground.js sitesindeki ilk iki eğitimi bitirdim, ancak dikdörtgen çizilmiyor. Klasör yapısı şu şekilde: index.html scripts ---main.js ---playground.js index.html: <!DOCTYPE html> <html> <head><title>Simple Game</title></head> <body> <script src="scripts/main.js"></script> <script src="scripts/playground.js"></script> </body> </html> main.js: var app = playground({ render: function() { this.layer.clear("#000088"); this.layer.fillStyle("#ffffff"); this.layer.fillRect(32, 32, 64, 64); } }); playground.js, siteden indirdiğim dosya. Nerede hata yapıyorum ve bunu nasıl düzeltebilirim?
Ana ve playground script etiketlerinizin sırasını değiştirin. Sıra önemlidir: <script src="scripts/playground.js"></script> <script src="scripts/main.js"></script>
Image.open rastgele seçilen image-variable değişkenini Python'da işleyemiyor Bu benim ilk Python scriptim/programım, bu yüzden her şeyi Google’dan aradım ve artık biraz kavramaya başladım. Dizindeki resimlerden rastgele birini seçip, bunu bir label olarak gösterecek bir program yapmaya çalışıyorum. Her şey yolunda gidiyor, fakat bir noktada takıldım. Rastgele seçilen resmi bir değişkene atıyorum ve Image.open fonksiyonuna bu değişkende bulunan yolu kullanmasını söylüyorum. Ancak sorun şu ki, Image.open değişkeni bir dosya adı/yolu olarak tanımıyor, onun yerine şöyle tanımlıyor: "PIL.PngImagePlugin.PngImageFile image mode=P size=980x93 at 0xF185A8". Bütün gece Google’da aradım ama bir cevap ya da çözüm bulamadım. Hem img1 değişkenini hem de path1 değişkenini print ettiğim zaman doğru çıkıyor. Bunu nasıl çözeceğime dair bir fikri olan var mı? Her türlü cevaba çok minnettar olurum! Python 2.7.3 kullanıyorum Ve scriptim (henüz bitmemiş haliyle) şu şekilde: #! /usr/bin/env python from Tkinter import * import Tkinter import random from PIL import Image, ImageTk import os root = Tkinter.Tk() w, h = root.winfo_screenwidth(), root.winfo_screenheight() root.geometry("%dx%d+0+0" %(w, h)) root.configure(background="darkgreen") dir = 'decks/' img1 = random.choice(os.listdir(dir)) path1 = dir+img1 card1 = Image.open(path1) card1 = card1.resize((140, 190), Image.ANTIALIAS) magicback = Image.open("datapics/magicback.jpg") magicback = magicback.resize((140, 190), Image.ANTIALIAS) magicbutton = ImageTk.PhotoImage(magicback) label = Label(root, image=magicbutton) label.image = magicbutton label.place(x=1, y=20) label1 = Label(root, image=card1) label1.image = card1 label1.place(x=1, y=230) label2 = Label(root, image=magicbutton) label2.image = magicbutton label2.place(x=151, y =230) label3 = Label(root, image=magicbutton) label3.image = magicbutton label3.place(x=301, y=230) label4 = Label(root, image=magicbutton) label4.image = magicbutton label4.place(x=451, y=230) label5 = Label(root, image=magicbutton) label5.image = magicbutton label5.place(x=601, y=230) label6 = Label(root, image=magicbutton) label6.image = magicbutton label6.place(x=751, y=230) label7 = Label(root, image=magicbutton) label7.image = magicbutton label7.place(x=901, y=230) root.mainloop(0)
Eğer soruyu doğru anladıysam, sorunun image.open() ile ilgili. Sanırım problem, dizin ve dosya adını birleştirirken bunları doğrudan string olarak kullanmandan kaynaklanıyor: path1 = dir + img1 Bunun yerine, ikisini birleştirmek için os.path modülünü kullanmalısın: path1 = os.path.join(dir, img1)
İki dizini, büyük boyutlu dosyaları koruyarak birleştirme Örneğin: mkdir dir1 mkdir dir2 cd dir1 echo "This file contains something" > a touch b echo "This file contains something" > c echo "This file contains something" > d touch e cd ../dir2 touch a echo "This file contains something" > b echo "This file contains something" > c echo "This file contains more data than the other file that has the same name but is in the other directory. BlaBlaBlaBlaBlaBlaBlaBlaBla BlaBlaBlaBlaBlaBlaBlaBlaBla BlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBlaBla. bla!" > d dir1 ve dir2 dizinlerini birleştirmek istiyorum. Eğer iki dosyanın adı aynıysa, yalnızca boyutu büyük olan dosya korunmalı. Birleştirilmiş dizindeki beklenen içerik aşağıdadır: a # `dir1`'den geliyor b # `dir2`'den geliyor c # `dir1` veya `dir2`'den geliyor d # `dir2`'den geliyor e # `dir1`'den geliyor (boş)
Dosya adlarında bir satır sonu karakteri olmadığını varsayarsak: find . -type f -printf '%s %p\n' \ | sort -nr \ | while read -r size file; do if ! [ -e "dest/${file#./*/}" ]; then cp "$file" "dest/${file#./*/}"; fi; done find komutunun çıktısı "dosya boyutu yol" şeklinde bir listedir: 221 ./dir1/a 1002 ./dir1/b 11 ./dir2/a Daha sonra bu liste sayısal olarak sıralanır: 1002 ./dir1/b 221 ./dir1/a 11 ./dir2/a Sonrasında, while read -r size filename döngüsüne gelinir. Burada, her bir dosya, eğer daha önce mevcut değilse, dest/${file#./*/} konumuna kopyalanır. ${file#./*/} ifadesi, file parametresinin baştaki dizin kısmı çıkarılmış haline dönüşür: ./abc/def/foo/bar.txt -> def/foo/bar.txt olur, yani dest dizininde def/foo klasörünün oluşturulması gerekebilir: | while read -r size file; do dest=dest/${file#./*/} destdir=${dest%/*} [ -e "$dest" ] && continue [ -e "$destdir" ] || mkdir -p -- "$destdir" cp -- "$file" "$dest" done A: Diğer yanıta yeterli itibar puanım olmadığı için yorum yapamıyorum, fakat eksik fi nedeniyle ben bir sözdizimi hatasıyla karşılaşmıştım. Ayrıca, kopyalamadan önce hedef klasörün oluşturulması gerektiği ile ilgili bir hata daha aldım. Bu yüzden: find . -type f -printf '%s %p\n' | sort -nr | while read -r size file; do if ! [ -e "dest/${file#./*/}" ]; then mkdir -p "$(dirname "dest/${file#./*/}")" && cp "$file" "dest/${file#./*/}"; fi; done
C#'da bir graf üzerinde 2 düğümün bağlantılı olup olmadığını özyinelemeli olarak kontrol etmek Basit bir Depth-First Search’i (DFS) özyinelemeli olarak uygulamaya çalışıyorum. Aşağıda kurduğum grafik ve 1. Düğüm ile 5. Düğüm arasında bir yol arama kodum var: int[][] graph = new int[5][]; graph[0] = new int[] { 1, 2 }; graph[1] = new int[] { 1, 3 }; graph[2] = new int[] { 2, 4 }; graph[3] = new int[] { 3, 4 }; graph[4] = new int[] { 4, 5 }; if (FindNode(graph, 1, 5)) { //Başarılı } Burada 1. Düğüm, 2. ve 3. düğümlere bağlı. 2. Düğüm 4’e, 3. Düğüm 4’e ve 4. Düğüm 5’e bağlı. İşte özyinelemeli fonksiyonum: public static Boolean FindNode(int[][] graph, int start, int end) { if (start == end) { return true; } for (int i = 0; i < graph.Length; i++) { if (graph[i][0] == start) { start = graph[i][1]; if (FindNode(graph, start, end)) { return true; } } } return false; } Temelde bu kod, graph verisinin ‘sol sütununda’ başlangıç değerini arıyor ve ardından başlangıç düğümünü onun ilişkilendirilmiş düğümüyle değiştiriyor. Kod bu grafik örneği için beklendiği gibi çalışıyor (yani 1 -> 2 -> 4 -> 5 yolunu buluyor) ama özyinelemeli döngüde geri gitmesi gerektiğinde çözümü bulamıyor (örneğin eğer graph[4] {3,5} olursa). Özyineleme konusunda çok tecrübem yok, bu yüzden bunu nasıl düzelteceğimden emin değilim. Zaten daha önce ziyaret edilmiş düğümleri atlamayı optimize etmem gerekmiyor. Yolun bir liste olarak döndürülmesini istiyorum (ör. 1,2,4,5). Teşekkürler
Cevabınızdaki mantık doğru, fakat yolu (path) gösterebilmek için başarılı bağlantıları bir stack'e veya bir listenin başına eklemeniz gerekir. Bir listeye yalnızca sonundan ekleme yapabiliyorsanız (örneğin her adımı sadece Console.WriteLine ile yazdırmak gibi), o zaman yolu hatırlamadan (veya döndürmeden) da bunu yapabilirsiniz; fakat yolu ters sıradan oluşturarak bunu akıllıca yapmanız gerekir. (Zincirin son adımını ilk olarak bulacaksınız.) Eğer n -> end şeklinde bir bağlantı varsa ve start -> n şeklinde bir yol bulunuyorsa, o zaman n -> end bağlantısını gösterebilirsiniz. start -> n arasında bir yolun olduğunu bulduğunuz anda, o bağlantıların hepsini zaten ekrana yazdırmış olursunuz. using System; class Program { public static Boolean FindNode(int[][] graph, int start, int end) { if (start == end) { return true; } for (int i = 0; i < graph.Length; i++) { if (graph[i][1] == end) { if (FindNode(graph, start, graph[i][0])) { Console.WriteLine("{0} -> {1}", graph[i][0], end); return true; } } } return false; } static void Main(string[] args) { int[][] graph = new int[5][]; graph[0] = new int[] { 1, 2 }; graph[1] = new int[] { 1, 3 }; graph[2] = new int[] { 2, 4 }; graph[3] = new int[] { 3, 4 }; graph[4] = new int[] { 4, 5 }; if (FindNode(graph, 1, 5)) { //Başarılı } } }
FMOD: Yinelenen platform temizleme uyarısı FMOD for Unity 2.01.07 (Unity 2019.4.18f1 - MacOS Catalina üzerinde çalışıyor) FMODStudioSettings sınıfını bozmuş gibi görünüyor. Editörde kaydetmeye çalışırken şu hataları alıyorum: FMOD: Cleaning up duplicate platform: ID = playInEditor, name = 'Play In Editor Settings', type = PlatformPlayInEditor ArgumentException: An item with the same key has already been added. Key: playInEditor FMOD: Cleaning up duplicate platform: ID = default, name = 'Default Settings', type = PlatformDefault ArgumentException: An item with the same key has already been added. Key: default NullReferenceException: Object reference not set to an instance of an object FMODUnity.SettingsEditor.DisplayPlugins (System.String title, FMODUnity.Platform platform, FMODUnity.Platform+PropertyAccessor`1[T] property, System.Collections.Generic.Dictionary`2[TKey,TValue] expandState, System.String warning) (at Assets/Plugins/FMOD/src/Editor/SettingsEditor.cs:1028) Bunun, Unity entegrasyonunu temelde kullanılamaz hâle getiren bir gerileme (regression) olduğunu düşünüyorum. Sorunun Platforms haritasındaki platformların yinelenmeden temizlenmesiyle ilgili olduğunu tahmin ediyorum. Çalışma anında platformlarla ilgili bir dizi Null Reference Exception (NPE) alıyorum, bu nedenle oyunu düzgün şekilde çalıştıramıyorum. Başka biri de bu sorunla karşılaştı mı? FMOD’u oyunumuz için bir middleware seçeneği olarak değerlendiriyorum ve Unity entegrasyonunda en az iki ciddi hata ile karşılaştım. Diğer hataya buradan ulaşabilirsiniz. GÜNCELLEME: Bu sorunun neden herkeste olmadığını bulamadım, ancak aynı sorunla karşılaşanlar için kolay bir çözüm şu diff'i uygulamak oldu: diff --git a/Assets/Plugins/FMOD/src/Runtime/Settings.cs b/Assets/Plugins/FMOD/src/Runtime/Settings.cs index 2641e926..c2843145 100644 --- a/Assets/Plugins/FMOD/src/Runtime/Settings.cs +++ b/Assets/Plugins/FMOD/src/Runtime/Settings.cs @@ -817,6 +817,10 @@ namespace FMODUnity private void PopulatePlatformsFromAsset() { + Platforms.Clear(); + PlatformForBuildTarget.Clear(); + PlatformForRuntimePlatform.Clear(); + #if UNITY_EDITOR string assetPath = AssetDatabase.GetAssetPath(this); UnityEngine.Object[] assets = AssetDatabase.LoadAllAssetsAtPath(assetPath); @@ -827,36 +831,8 @@ namespace FMODUnity foreach (Platform newPlatform in assetPlatforms) { - Platform existingPlatform = FindPlatform(newPlatform.Identifier); - - if (existingPlatform != null) - { - // Duplicate platform; clean one of them up - Platform platformToDestroy; - - if (newPlatform.Active && !existingPlatform.Active) - { - Platforms.Remove(existingPlatform.Identifier); - - platformToDestroy = existingPlatform; - existingPlatform = null; - } - else - { - platformToDestroy = newPlatform; - } - - Debug.LogWarningFormat("FMOD: Cleaning up duplicate platform: ID = {0}, name = '{1}', type = {2}", - platformToDestroy.Identifier, platformToDestroy.DisplayName, platformToDestroy.GetType().Name); - - DestroyImmediate(platformToDestroy, true); - } - - if (existingPlatform == null) - { - newPlatform.EnsurePropertiesAreValid(); - Platforms.Add(newPlatform.Identifier, newPlatform); - } + newPlatform.EnsurePropertiesAreValid(); + Platforms.Add(newPlatform.Identifier, newPlatform); } #if UNITY_EDITOR
Yani bu, onların 2.01.10 sürümünde düzelttikleri entegrasyondaki bir hataydı.
Tablo 1’de, A sütununda aynı frekans değerine sahip olan tekrar eden kayıtlar var. Bu kayıtlar arasından rastgele bir tane seçmem gerekiyor. Eğer yineleyen kayıtlardan herhangi birinin B sütununda 'unknown' değeri varsa (örneğin, "d" kaydında olduğu gibi), seçim diğer satırlardan yapılmalı. Yukarıdaki koşulları sağlayan bir select sorgusuna ihtiyacım var. Teşekkürler.
Bu koşulları, row_number gibi bir fonksiyonla order by içinde bir case ifadesi kullanarak önceliklendirebilirsiniz. select A,B,frequency,timekey from (select t.* ,row_number() over(partition by A order by cast((B = 'unknown') as int), B) as rnum from tbl t ) t where rnum = 1 Burada, her bir A grubu için, önce B = 'unknown' olmayan satırlar öncelikli olarak, ardından B değerlerinin kendi sırası gözetilerek seçilir. A: row_number analitik fonksiyonunu kullanın. Eğer önce 'unknown' olmayan kaydı seçmek isterseniz aşağıdaki sorguyu kullanın: select A, B, Frequency, timekey from (select A, B, Frequency, timekey, row_number() over(partition by A,Frequency order by case when B='unknown' then 1 else 0 end) rn )s where rn=1 Ve eğer varsa 'unknown' olanı seçmek isterseniz, yukarıdaki sorgudaki row_number'ı şu şekilde kullanın: row_number() over(partition by A,Frequency order by case when B='unknown' then 0 else 1 end) rn
SQL: Büyük bir veritabanında "Where" mı yoksa "AND" mı daha iyi performans gösterir? Elimde bu SQL sorgusu var. Aynı tablo üzerinde çalışıyor ve üç sütundan oluşan bir veri seti oluşturuyor. Merak ettiğim konu, 'WHERE' ifadesini mi yoksa 'AND' ifadesini mi kullanmam gerektiği. 'AND'in daha verimli ve hızlı olacağı hissine kapıldım. Lütfen görüşlerinizi paylaşın. Birincisi 'WHERE' ile, ikincisi ise onsuz. * *SELECT DISTINCT t1.rpsrespondent AS id_num, t1.rpscontent AS PID, t2.RpsContent AS SeqNo FROM table t1 INNER JOIN table t2 ON t1.rpsrespondent=t2.rpsrespondent INNER JOIN table t3 ON t3.rpsrespondent=t1.rpsrespondent WHERE t1.RpsQuestion='PID' AND t2.RpsQuestion = 'VISITID' AND t3.rpsquestion ='INT99' AND t3.rpscontent in('36','37') *SELECT DISTINCT t1.rpsrespondent AS id_num, t1.rpscontent AS PID, t2.RpsContent AS SeqNo FROM table t1 INNER JOIN table t2 ON t1.rpsrespondent=t2.rpsrespondent AND t1.RpsQuestion='PID' AND t2.RpsQuestion = 'VISITID' INNER JOIN table t3 ON t3.rpsrespondent=t1.rpsrespondent AND t3.rpsquestion ='INT99' AND t3.rpscontent in('36','37')
INNER JOIN kullanılırken, koşulların JOIN veya WHERE deyimlerinde belirtilmesinin bir farkı yoktur. Sorgular anlamsal olarak aynıdır, bu nedenle SQL Server optimizer aynı (optimal) yürütme planını oluşturacaktır. Sonuç olarak aynı performansı alırsınız.
Birden fazla sütunu diziye alıp farklı bir sayfaya yapıştırmak istiyorum, son satırda #ref hatası alıyorum? Bir diziye bazı sütunları alıp, bu sütunları başka bir çalışma sayfasına dizi olarak yapıştırmak istiyorum. RESOURCEPLANNING sayfasındaki A2'den H sütununa kadar olan aralığı bir diziye almak ve bu diziden A,B,D,F & G sütunlarını Resource_Output sayfasına yapıştırmak istiyorum. Ancak tablomun en altında #REF! hatası alıyorum. Şu anda kullandığım kod: Sub Resourceplanning_array() Dim Var As Variant Dim my_Arange As Variant Dim rp As Worksheet, rp_opt As Worksheet Set rp = Sheets("RESOURCE_PLANNING") Set rp_opt = Sheets("RP_Output") Dim cell As Range my_Arange = rp.Range("A2", rp.Range("H" & Rows.Count).End(xlUp)) Var = Application.Index(my_Arange, Evaluate("row(1:" & [a1].CurrentRegion.Rows.Count & ")"), Array(1, 2, 4, 6, 8)) rp_opt.Range("A1:E" & UBound(Var)) = Var 'Output the Array. End Sub
İki Boyutlu Bir Diziyi Parçalamak * *Verilerin A1 hücresinden başladığı ve bir satır başlığının bulunduğu varsayılmaktadır. *H sütunu yerine G sütununu kopyalamak için 8 yerine 7 kullanmanız gerekir. *[A1].CurrentRegion.Rows.Count, hangi çalışma sayfasının aktif olduğuna bağlı olarak farklı sonuçlar verebilir, bu nedenle aralığı nitelendirmeniz gerekir: rp.Range("A1").CurrentRegion.Rows.Count. *rp.Range("A1").CurrentRegion.Rows.Count, rp.Range("H" & rp.Rows.Count).End(xlUp).Row’dan farklı olabilir, bu yüzden birini seçmelisiniz (ben birincisini seçtim). *Hızlı bir çözüm olarak [a1].CurrentRegion.Rows.Count - 1 kullanılabilir, ancak önceki iki nedenden dolayı önerilmez. rp.Range("A1").CurrentRegion.Rows.Count - 1 daha iyi olurdu. *Her iki çözüm de aynı işi yapar, ilk çözümdeki ‘exclude-headers-parts’ (başlıkları dahil etme/dahil etmeme) yorum satırı hariç; bunu başlıkları dahil etmemek için kullanabilirsiniz. İkinci çözümdeki ‘clear-contents-part’ ise hedef aralıktaki verinin altını temizlemek için kullanılabilir. *Sabitler bölümündeki değerleri, çalışma kitabı referansını, başlıkların dahil edilip edilmeyeceğini (ve hedef aralığın altındaki içeriğin temizlenip temizlenmeyeceğini) ayarlayın. Option Explicit Sub sliceArray() Const sName As String = "RESOURCE_PLANNING" Const sCols As String = "A:H" Const dName As String = "RP_Output" Const dFirst As String = "A1" Dim dCols As Variant: dCols = VBA.Array(1, 2, 4, 6, 8) ' 'VBA': sıfır tabanlı Dim wb As Workbook: Set wb = ThisWorkbook ' bu kodu barındıran çalışma kitabı 'Dim wb As Workbook: Set wb = ActiveWorkbook ' o anda görmüş olduğunuz çalışma kitabı ' Kaynak Çalışma Sayfası Dim sws As Worksheet: Set sws = wb.Worksheets(sName) ' Kaynak/Hedef Satır Sayısı Dim rCount As Long: rCount = sws.Range("A1").CurrentRegion.Rows.Count ' Başlık yok 'Dim rCount As Long: rCount = sws.Range("A1").CurrentRegion.Rows.Count - 1 ' Kaynak Dizi Dim sData As Variant sData = sws.Columns(sCols).Resize(rCount).Value ' Başlık yok 'sData = sws.Columns(sCols).Resize(rCount).Offset(1).Value ' Hedef Dizi Dim dData As Variant dData = Application.Index(sData, Evaluate("Row(1:" & rCount & ")"), dCols) ' Hedef Sütun Sayısı Dim dcCount As Long: dcCount = UBound(dCols) + 1 ' = UBound(dData, 2) ' Hedef Çalışma Sayfası Dim dws As Worksheet: Set dws = wb.Worksheets(dName) ' Hedef Aralık Dim drg As Range: Set drg = dws.Range(dFirst).Resize(rCount, dcCount) ' Yazdır drg.Value = dData End Sub Sub sliceArrayShort() Const sName As String = "RESOURCE_PLANNING" Const sCols As String = "A:H" Const dName As String = "RP_Output" Const dFirst As String = "A1" Dim dCols As Variant: dCols = VBA.Array(1, 2, 4, 6, 8) Dim wb As Workbook: Set wb = ThisWorkbook ' Oku Dim rCount As Long Dim sData As Variant With wb.Worksheets(sName) rCount = .Range("A1").CurrentRegion.Rows.Count sData = .Columns(sCols).Resize(rCount).Value End With ' Parçala Dim dData As Variant dData = Application.Index(sData, Evaluate("Row(1:" & rCount & ")"), dCols) ' Yaz (& Temizle) With wb.Worksheets(dName).Range(dFirst).Resize(, UBound(dCols) + 1) .Resize(rCount).Value = dData '.Resize(.Worksheet.Rows.Count - .Row - rCount + 1) _ .Offset(rCount).ClearContents End With End Sub
Javascript’te, bir form gönderildiğinde harici bir API'ye istek yapmaya çalışıyorum. Bu işlemin tamamlanmasının ardından devam eden işlemleri ayarlamak ve olası hataları yakalamak için promise'ları kullanıyorum. Sorunum şu: Hatalarımı doğru şekilde yakaladığımı düşünmeme rağmen konsolda şu uyarıyı alıyorum: Uncaught (in promise) error : [Fırlattığım hata] Nedenini anlayamıyorum. Aşağıda, refreshToken süresi dolduğunda hatayı yeniden üretecek minimum bir kod örneğim var: try { functionGeneratingTheError(); } catch (error) { doSomethingElse(); } function functionGeneratingTheError() { var getTokenCallPayload = { "client_id" : clientId, "client_secret" : clientSecret, "refresh_token" : refreshToken, "grant_type" : "refresh_token" }; var getTokenCallOptions = { "method" : "POST", "body" : JSON.stringify(getTokenCallPayload), "muteHttpExceptions" : false }; fetch(tokenURL, getTokenCallOptions) .then(response => { if (response.ok) { return response.json(); } else { throw new Error("Error"); } }) .then(data => { doSomething(); }) .then(response=> { doSomethingAgain(); }) .catch(error => { throw error; }); } Anladığım kadarıyla, fetch kötü bir istekte bulunduğunda "Error" hatasını fırlatmalı ve bu hata ilk catch bloğunda yakalanıp doSomethingElse() fonksiyonunu çalıştırmalı. Ancak bunun yerine, tarayıcı konsolunda "Uncaught (in promise) Error: Error" şeklinde bir hata alıyorum. Neyi yanlış yapıyorum? fetch’i try{}catch(){} bloğunun içine dahil etmeyi de denedim ama bir şey değişmedi. Ayrıca hatayı fırlatmadan doğrudan doSomethingElse() fonksiyonunu çağırmayı denedim ama o zaman da takip eden .then bloğu çalışmıyor çünkü data tanımsız.
functionGeneratingTheError fonksiyonunu aşağıdaki gibi zincirlenmiş promise döndürecek şekilde değiştirin: function functionGeneratingTheError() { var getTokenCallPayload = { "client_id" : clientId, "client_secret" : clientSecret, "refresh_token" : refreshToken, "grant_type" : "refresh_token" }; var getTokenCallOptions = { "method" : "POST", "body" : JSON.stringify(getTokenCallPayload), "muteHttpExceptions" : false }; return fetch(tokenURL, getTokenCallOptions) .then(response => { if (response.ok) { return response.json(); } else { throw new Error("Error"); } }) .then(data => { doSomething(); }) .then(response=> { doSomethingAgain(); }) .catch(error => { throw error; }); } Ve ardından, çağırdığınız kodun içinde, çağrıyı bir async kendiliğinden çağrılan fonksiyonun içine sararak await ile bekleyin: (async function() { try { await functionGeneratingTheError(); } catch (error) { doSomethingElse(); } })(); async/await hakkında daha fazla bilgiyi burada bulabilirsiniz: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Statements/async_function
ManyToManyField'da bir nesnenin kaç kez referanslandığını alın Aşağıdaki gibi bazı modellerim var: class UserProfile(models.Model): user = models.OneToOneField(User) favorite_books = models.ManyToManyField(Book) # ... class Book(models.Model): title = models.CharField(max_length=255) Bir Book'un kaç kez favorilere eklendiğini nasıl öğrenebilirim?
ORM ile "through" tablosunu doğrudan sorgulayabilirsiniz: UserProfile.favorite_books.through.objects.filter(book_id=book.id).count() A: appname_* kısmını veritabanınızdaki M2M tablosunun adıyla değiştirmeniz gerekecek, ancak aşağıdaki gibi bir şey yapabilirsiniz: from django.db import connections cursor = connections['default'].cursor() cursor.execute(""" SELECT count(*) FROM appname_userprofile_books WHERE book_id = {book_id}; """.format(book_id=book_id)) favorited_count_list = cursor.fetchall() Daha sonra sayıyı favorited_count_list listesinden çekebilirsiniz.
Belirli Bir Şarta Göre Bir Veri Çerçevesini Bir Veri Çerçeveleri Listesinden Kaldırmak Bir veri çerçeveleri listem var ve bu listeden, belirli bir sütunda belirli bir değere sahip olan veri çerçevelerini kaldırmak istiyorum. Kod library(tidyverse) combi <- function(a=c(1,2,3), b=c(2,3,4,5)){ return(expand.grid(a,b)) } df <- pmap(list(a=c(1,2,3)), combi) Çıktı df [[1]] Var1 Var2 1 1 2 2 1 3 3 1 4 4 1 5 [[2]] Var1 Var2 1 2 2 2 2 3 3 2 4 4 2 5 [[3]] Var1 Var2 1 3 2 2 3 3 3 3 4 4 3 5 Diyelim ki, Var1==2 olan bir veri çerçevesini kaldırmak istiyorum. Tidyverse ile bu problemi nasıl çözersiniz?
purrr içinde discard kullanabilirsiniz: purrr::discard(df, ~any(.x$Var1 == 2)) # Ya da keep kullanımı #purrr::keep(df, ~any(.x$Var1 != 2)) #[[1]] # Var1 Var2 #1 1 2 #2 1 3 #3 1 4 #4 1 5 #[[2]] # Var1 Var2 #1 3 2 #2 3 3 #3 3 4 #4 3 5 Ya da base R'da Filter fonksiyonu ile: Filter(function(x) any(x$Var1 != 2), df) Bazı varyasyonlar: df[sapply(df, function(x) any(x$Var1 != 2))] df[purrr::map_lgl(df, ~any(.x$Var1 != 2))]
Web Scraping w/Mechanize ve/veya BeautifulSoup4 ile ASP sayfalarında Merhaba, ben programlama konusunda acemiyim ve bazı kodları çalıştırmaya çabalıyorum. ASP sayfalarında scraping, form alanlarını doldurma, gönderme ve ardından içerikle çalışma konusunda düzgün bir eğitim bulamadım. Şu ana kadar yazdığım kod şöyle: import mechanize import re url = 'http://www.cic.gc.ca/english/work/iec/index.asp' br = mechanize.Browser(factory=mechanize.RobustFactory()) br.set_handle_robots(False) br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')] br.open(url) response = br.response().read() Yapmaya çalıştığım şeyler: * *Bu URL’yi yüklemek *2 form alanını doldurmak *Göndermek *div id stats içeriğini python ile yazdırmak *15 dakikalık zaman aralığıyla bir döngüde çalıştırmak *Döngü sırasında div stats içinde herhangi bir şey değişirse yüksek sesli bir uyarı çalmak En az programlama bilgisiyle bunu yapmanın en iyi/en hızlı yolu nedir, öneride bulunabilir misiniz?
Sayfanın yüklendiği anda ikinci formun neden görünmediğini anladıktan sonra aslında o kadar da zor olmadığını göreceksin. Bu durumun ASP’nin kendisiyle alakası yok, aslında “display: none;” olarak ayarlanmış CSS stiliyle ilgili ve ancak ilk Option Select doldurulduğunda aktif hale geliyor. İşte istediğin şeyin Selenium kullanılarak tam olarak nasıl yapıldığına dair bir örnek, sanırım mechanize için de benzer bir yöntem uygulanabilir. Temel akış şu şekilde olmalı: * *web tarayıcısını başlat ve sayfayı yükle *ilk Option Select’i bul ve doldur *bir change event’i tetikle (ben TAB tuşu göndermeyi seçtim) ve ikinci Option Select görünür olur *ikinci Select’i doldur, submit butonunu bul ve tıkla *div id=stats’ten aldığın içeriğe bir isim ver *içeriğin son fetch’ten değişip değişmediğini karşılaştır a) EVET ise, BEEP işlemini yap, driver’ı kapat vs. b) HAYIR ise, bir zamanlayıcı ayarla (ben Python’un Event Scheduler’ını kullandım), crawling fonksiyonunu tekrar çalıştır... Hepsi bu! Oldukça kolay, tamam şimdi kod zamanı -- ben test için United Kingdom + Working Holiday seçtim: import selenium.webdriver from selenium.webdriver.common.keys import Keys import sched, time driver = selenium.webdriver.Firefox() url = 'http://www.cic.gc.ca/english/work/iec/index.asp' driver.get(url) html_content = '' # construct a scheduler s = sched.scheduler(time.time, time.sleep) def crawl_me(): global html_content driver.refresh() time.sleep(5) # wait 5s for page to be loaded country_name = driver.find_element_by_name('country-name') country_name.send_keys('United Kingdom') # trick's here to send a TAB key to trigger the change event country_name.send_keys(Keys.TAB) # make sure the second Option Select is active (none not in style) assert "none" not in driver.find_element_by_id('category_dropdown').get_attribute('style') cateogory_name = driver.find_element_by_name('category-name') cateogory_name.send_keys('Working Holiday') btn_go = driver.find_element_by_id('submit') btn_go.send_keys(Keys.RETURN) # again, check if the content has been loaded assert "United Kingdom - Working Holiday" not in driver.page_source compared_content = driver.find_element_by_id('stats').text # here we will end this script if content has changed already if html_content != '' and html_content != compared_content: # do whatever you want to play the beep sound # at the end exit the loop driver.close() exit(-1) # if no changes are found, trigger the schedule_crawl() function, like recursively html_content = compared_content print html_content return schedule_crawl() def schedule_crawl(): # set your time interval here, 15*60 = 15 minutes s.enter(15*60, 1, crawl_me, ()) s.run() # and run it of course crawl_me() Açıkçası bu oldukça kolay ve anlaşılır, ancak html/css/javascript’in nasıl çalıştığını (bu örnekte javascript gerekmedi ama temelini bilmek iyi olur) ve tüm bu bileşenlerin birbiriyle etkileşimini tam olarak anlamanı gerektiriyor. Öğrenmek için temelden başla: oku => sindir => kodla => deneyimle => döngü halinde tekrar et. Programlamada kestirme ya da en hızlı yol yoktur. Umarım yardımcı olmuştur (ve umarım kodumu direkt kopyalayıp yapıştırmak yerine, kendin mechanize ile kendi yönteminle uygularsın). Bol şans!
Javascript'te non-configurable, non-writable özellikler nasıl değiştirilebilir? Basit bir EventEmitter'i ES5 ile yazıyorum. Amacım, EventEmitter örneklerindeki tüm özelliklerin non-writable ve non-configurable olmasını sağlamak." 6 saat boyunca uğraşmama rağmen, örneğin configurable descriptor'ı false olarak ayarlıysa listenerCount'u nasıl artırabileceğimi bulamıyorum. Elimde şöyle bir örnek var: var eventEmitter = function(){ var listeners = listeners || 0; var events = events || {}; Object.defineProperties(this, { listeners: { value : 0, configurable: false, writable: false }, events: { value: {}, configurable : false, writable: false } }); return this; }; eventEmmitter.prototype.on = function(ev, cb) { if (typeof ev !== 'string') throw new TypeError("Event should be type string", "index.js", 6); if (typeof cb !== 'function' || cb === null || cb === undefined) throw new TypeError("callback should be type function", "index.js", 7); if (this.events[ev]){ this.events[ev].push(cb); } else { this.events[ev] = [cb]; } this.listeners ++; return this; };
Bir IIFE (immediately invoked function expression) kullanmanı öneririm: var coolObj=(function(){ var public={}; var nonpublic={}; nonpublic.a=0; public.getA=function(){nonpublic.a++;return nonpublic.a;}; return public; })(); Artık şunu yapabilirsin: coolObj.getA();//1 coolObj.getA();//2 coolObj.a;//undefined coolObj.nonpublic;//undefined coolObj.nonpublic.a;//undefined Bunun beklediğin cevap olmadığını biliyorum, fakat bence bu tür bir şeyi yapmanın en kolay yolu bu. A: Özellik tanımlamak için anahtar gerektiren bir proxy kullanabilirsin: function createObject() { var key = {configurable: true}; return [new Proxy({}, { defineProperty(target, prop, desc) { if (desc.value === key) { return Reflect.defineProperty(target, prop, key); } } }), key]; } function func() { var [obj, key] = createObject(); key.value = 0; Reflect.defineProperty(obj, "value", {value: key}); key.value = function() { key.value = obj.value + 1; Reflect.defineProperty(obj, "value", {value: key}); }; Reflect.defineProperty(obj, "increase", {value: key}); return obj; } var obj = func(); console.log(obj.value); // 0 try { obj.value = 123; } catch(err) {} try { Object.defineProperty(obj, "value", {value: 123}); } catch(err) {} console.log(obj.value); // 0 obj.increase(); console.log(obj.value); // 1
Virtual Allocation - Donanım ve Yazılım Bağımlılıkları Sanal bellek tahsisinde önemli olan OS/Yazılım ayarları nelerdir? Çünkü belirli bir adres için sanal bellek tahsisi, iş arkadaşımın Win-7 PC'sinde her zaman başarılı olurken, benim Win-7 PC'mde ise her zaman başarısız oluyor. Donanım açısından aramızda hiçbir fark yok. Sadece, kontrol etmem gereken tüm yazılım/OS parametrelerinin neler olduğunu bilmek istiyorum. Kullanılan dil: Visual Studio OS: Windows-7 64 bit Laptop
1) Windows Sysinternals VMMap, belirli bir süreçteki sanal bellek yerleşimi hakkında oldukça iyi içgörüler sunabilir. Eğer bu aracın iki farklı PC’de sağladığı görselleştirmeleri karşılaştırmak yardımcı olmuyorsa... 2) ...Google’da: "virtual memory configuration windows 7" araması sizi oldukça hızlı bir şekilde doğru yöne yönlendirecektir. 3) Ayrıca orijinal sorunuzda https://stackoverflow.com/q/25263223/2626313 adresinde, tam adresle ilgili sorunun nedeni, adres aralığının halihazırda bir donanım bileşeni tarafından kullanılıyor olması olabilir. Bunu Kontrol Paneli → Aygıt Yöneticisi’ni açarak, menüden Görünüm → Kaynağa göre (Resources by type) seçeneğine geçip, Bellek (Memory) düğümünün altındakileri inceleyerek kontrol edebilirsiniz. 4) Son olarak, şu makale https://superuser.com/a/61604/304578, Mark Russinovich’in (Windows Sysinternals araç setinin orijinal yazarı) konuyla ilgili olabilecek açıklayıcı blog yazısına bağlantı içermekte.
Sayfa yenilendikten sonra Array undefined oluyor Angular WebApi üzerinde çalışıyorum. Localhost'tan JSON formatında bir veritabanı yanıtım var. Uygulamayı çalıştırdığımda, oData dizisini görebiliyorum. Fakat sayfayı yenilediğimde oData undefined oluyor. Bunu nasıl çözebilirim? İşte .ts dosyamdan kodum: ngOnInit(): void { this.mydataser.getDbData().subscribe(data => { this.oData = data; }); } public importData() { console.log(this.oData) } İşte servis dosyam: getDbData(): Observable<DataFactory[]> { return this.http.get<DataFactory[]>("https://localhost:44216/api/dbdata"); } Not: localstorage kullanmayı denedim ama işe yaramadı.
data'yı boş bir dizi olarak tanımlayın; bunu yapmazsanız API yanıtı tamamlanana kadar undefined olur. Yanıtın gerçekten ne zaman geldiğini bilmek isterseniz tap kullanabilirsiniz. Yani, API yanıtı alındıktan sonra importData() fonksiyonunu çağırmak istiyorsanız, bu fonksiyonu subscribe içindeki this.importData() şeklinde çağırın, örneğin: // boş dizi olarak tanımla oData = []; buttonEnabled = false; ngOnInit(): void { this.mydataser.getDbData().pipe( tap(d => this.buttonEnabled = true) ).subscribe(data => { this.oData = data; }); } importData(): void{ console.log(this.o.Data); } Şablonda: <button [disabled]="!buttonEnabled">Import</button>
Magento 1.9'da Şifresiz Müşteri Girişi Yöntemi nedir? Müşterilerin sadece email id ile giriş yapmasını istiyorum. Magento 1.9'da şifre adımını atlamanın bir yolu var mı? Teşekkürler
Aşağıdaki kodu deneyin: $email = '[email protected]'; $customer = Mage::getModel('customer/customer'); $customer->setWebsiteId(Mage::app()->getWebsite()->getId()); $customer->loadByEmail(trim($email)); Mage::getSingleton('customer/session')->loginById($customer->getId());
JSON formatında bir listeden ürünleri nasıl kaldırabilirim? (ID kullanarak) Aşağıda, veritabanımdan alınan değerlerle oluşturulan JSON örneği var: { "product": [ { "id": "1", "title": "producta", "size": "50", "weight": "1000", "quantity": "100", "cartID": "1" }, { "id": "2", "title": "productb", "size": "50", "weight": "1000", "quantity": "100", "cartID": "2" }, { "id": "3", "title": "productb", "size": "10", "weight": "9000", "quantity": "100", "cartID": "3" }, { "id": "4", "title": "productd", "size": "100", "weight": "500", "quantity": "100", "cartID": "4" }, { "id": "5", "title": "producta", "size": "45", "weight": "880", "quantity": "120", "cartID": "5" } ] } Kullanıcı, alışveriş sepetinden bir ürünü silmek istediğinde, $remove_cartid değişkeni PHP sayfama gönderiliyor. Eğer $remove_cartid = 4 ise, "cartID": "4" olan ürün kaldırılmalı: { "product": [ { "id": "1", "title": "producta", "size": "50", "weight": "1000", "quantity": "100", "cartID": "1" }, { "id": "2", "title": "productb", "size": "50", "weight": "1000", "quantity": "100", "cartID": "2" }, { "id": "3", "title": "productb", "size": "10", "weight": "9000", "quantity": "100", "cartID": "3" }, { "id": "5", "title": "producta", "size": "45", "weight": "880", "quantity": "120", "cartID": "5" } ] } Bu işlemi gerçekleştirmek için PHP'deki explode fonksiyonunu birkaç kez denedim ancak ürünleri JSON listesinden kaldırmanın daha iyi (ve gerçekten işe yarayan) bir yolu olduğuna inanıyorum. Her türlü önerinizi ve yardımınızı memnuniyetle karşılarım.
$jsonList değişkenindeki JSON formatındaki listeyi PHP dizisine dönüştürmek için json_decode fonksiyonu kullanılır. Daha sonra, $list['product'] içerisindeki her bir $product elemanı dolaşılır. Eğer $product['cartID'] ile $remove_cartid eşitse ilgili ürün unset fonksiyonu ile listeden kaldırılır. Son olarak, güncellenmiş dizi json_encode fonksiyonu ile tekrar JSON formatına çevrilir.
MySQL: Tablo Engine'i İçin Toplu Dönüştürme Script'i Veritabanındaki tablo engine'ini toplu şekilde engine A'dan engine B'ye (bu durumda, MyISAM'dan InnoDB'ye) nasıl dönüştürebileceğimi bulmaya çalışıyorum. Bireysel tablolar için MySQL Workbench kullanarak bunu yapabildiğimi biliyorum, fakat bu işlemi topluca yapabilecek bir script ya da program istiyorum. Bu konuda fikri olan var mı? * DÜZENLEME * Mümkünse php kullanmadan, bu işlemi yapabileceğim bir SQL sorgusu tercih ederim.
Aşağıda, information_schema tablolarını kullanarak tablo motorunu değiştiren örnek bir pseudo kod yer almaktadır: $rows = "SELECT TABLE_NAME FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA = 'yourDBName' AND ENGINE LIKE 'engineA'"; foreach ($rows as $table) { $query = 'ALTER TABLE '.$table.' ENGINE = engineB'; }
distinct anahtar kelimesini kullanarak nasıl filtreleme yapabilirim? Bende tüm proje detaylarını alabildiğim bir proje listesi var. Project sınıfında, proje içerisinde bir customer nesnesi var. Bu listeyi sadece customer'a göre filtrelemek istiyorum. Bunu nasıl yapabilirim? public ICollection<Project> GetProjectBasicDetailsByProjectTypeCustomerID(ProjectType projectType, string custName, string cordinatorName, string projectName) { oLog.Debug("Started"); ISession session = DataAccessLayerHelper.OpenReaderSession(); ITransaction transaction = null; ICollection<Project> projectList = null; try { transaction = session.BeginTransaction(); ICriteria criteria = session.CreateCriteria(typeof(Project),"Project") .CreateAlias("Project.customer","customer",NHibernate.SqlCommand.JoinType.InnerJoin) .CreateAlias("Project.Coordinator", "Coordinator", NHibernate.SqlCommand.JoinType.InnerJoin) .Add(Restrictions.Eq("Project.ProjectType", projectType)); projectList = criteria.List<Project>().ToList(); session.Flush(); transaction.Commit(); } catch (Exception ex) { if (transaction != null && transaction.IsActive) transaction.Rollback(); oLog.Error(ex); } finally { if (transaction != null) transaction.Dispose(); if (session != null && session.IsConnected) session.Close(); } oLog.Debug("End"); return projectList; }
Sizi doğru anladıysam, projelerinizdeki benzersiz müşterileri almak istiyorsunuz, doğru mu? Bu durumda, sanırım aşağıdaki gibi bir şey işinize yarayabilir (bu, belirttiğiniz kritere göre size benzersiz project ID’lerini verecektir – belki projeleri doğrudan almak için bir yöntem de vardır, ancak şu anda bunu test edemiyorum): ICriteria criteria = session.CreateCriteria(typeof(Project),"Project") .SetProjection(Projections.Distinct(Projections.Property("project.Id"))) .CreateAlias("Project.customer","customer",NHibernate.SqlCommand.JoinType.InnerJoin) .CreateAlias("Project.Coordinator", "Coordinator", NHibernate.SqlCommand.JoinType.InnerJoin) .Add(Restrictions.Eq("Project.ProjectType", projectType));
Embedding Layer'ı tf.distribute.MirroredStrategy ile Kullanamıyorum Embedding katmanına sahip bir modeli paralel hale getirmeye çalışıyorum; Tensorflow sürümüm 2.4.1. Fakat aşağıdaki hatayı alıyorum: InvalidArgumentError: Cannot assign a device for operation sequential/emb_layer/embedding_lookup/ReadVariableOp: Could not satisfy explicit device specification '' because the node {{colocation_node sequential/emb_layer/embedding_lookup/ReadVariableOp}} was colocated with a group of nodes that required incompatible device '/job:localhost/replica:0/task:0/device:GPU:0'. All available devices [/job:localhost/replica:0/task:0/device:CPU:0, /job:localhost/replica:0/task:0/device:XLA_CPU:0, /job:localhost/replica:0/task:0/device:XLA_GPU:0, /job:localhost/replica:0/task:0/device:GPU:0]. Colocation Debug Info: Colocation group had the following types and supported devices: Root Member(assigned_device_name_index_=2 requested_device_name_='/job:localhost/replica:0/task:0/device:GPU:0' assigned_device_name_='/job:localhost/replica:0/task:0/device:GPU:0' resource_device_name_='/job:localhost/replica:0/task:0/device:GPU:0' supported_device_types_=[CPU] possible_devices_=[] GatherV2: GPU CPU XLA_CPU XLA_GPU Cast: GPU CPU XLA_CPU XLA_GPU Const: GPU CPU XLA_CPU XLA_GPU ResourceSparseApplyAdagradV2: CPU _Arg: GPU CPU XLA_CPU XLA_GPU ReadVariableOp: GPU CPU XLA_CPU XLA_GPU Colocation members, user-requested devices, and framework assigned devices, if any: sequential_emb_layer_embedding_lookup_readvariableop_resource (_Arg) framework assigned device=/job:localhost/replica:0/task:0/device:GPU:0 adagrad_adagrad_update_update_0_resourcesparseapplyadagradv2_accum (_Arg) framework assigned device=/job:localhost/replica:0/task:0/device:GPU:0 sequential/emb_layer/embedding_lookup/ReadVariableOp (ReadVariableOp) sequential/emb_layer/embedding_lookup/axis (Const) sequential/emb_layer/embedding_lookup (GatherV2) gradient_tape/sequential/emb_layer/embedding_lookup/Shape (Const) gradient_tape/sequential/emb_layer/embedding_lookup/Cast (Cast) Adagrad/Adagrad/update/update_0/ResourceSparseApplyAdagradV2 (ResourceSparseApplyAdagradV2) /job:localhost/replica:0/task:0/device:GPU:0 [[{{node sequential/emb_layer/embedding_lookup/ReadVariableOp}}]] [Op:__inference_train_function_631] Modeli daha basit hale getirip tekrar oluşturulabilir yapmak için sadeleştirdim: import tensorflow as tf central_storage_strategy = tf.distribute.MirroredStrategy() with central_storage_strategy.scope(): user_model = tf.keras.Sequential([ tf.keras.layers.Embedding(10, 2, name = "emb_layer") ]) user_model.compile(optimizer=tf.keras.optimizers.Adagrad(0.1), loss="mse") user_model.fit([1],[[1,2]], epochs=3) Her türlü yardım çok takdir edilecektir. Teşekkürler!
Sonunda sorunun ne olduğunu buldum, belki aynı sorunu yaşayanlar için açıklayayım. Tensorflow şu anda Adagrad optimizer’ın tam olarak GPU üzerinde bir implementasyonuna sahip değil. ResourceSparseApplyAdagradV2 işlemi, embedding layer için gerekli olmasına rağmen GPU’da hata veriyor. Bu nedenle, veri paralelliği stratejileriyle birlikte embedding layer ile kullanılamıyor. Adam veya rmsprop kullanmak ise sorunsuz çalışıyor.
C#'da JSON.Net kullanarak ayrıştırma (çok kafa karıştırıcı!) Aşağıdaki JSON'u ayrıştırmak istiyorum: {"0":{"igloo_id":"0","name":"Igloo Removal","cost":"0"},"1":{"igloo_id":"1","name":"Basic Igloo","cost":"1500"},"2":{"igloo_id":"2","name":"Candy Igloo","cost":"1500"},"3":{"igloo_id":"3","name":"Deluxe Blue Igloo","cost":"4000"},"4":{"igloo_id":"4","name":"Big Candy Igloo","cost":"4000"},"5":{"igloo_id":"5","name":"Secret Stone Igloo","cost":"2000"},"6":{"igloo_id":"6","name":"Snow Igloo","cost":"1000"},"8":{"igloo_id":"8","name":"Secret Deluxe Stone Igloo","cost":"5000"},"9":{"igloo_id":"9","name":"Deluxe Snow Igloo","cost":"3000"},"10":{"igloo_id":"10","name":"Bamboo Hut","cost":"3200"},"11":{"igloo_id":"11","name":"Log Cabin","cost":"4100"},"12":{"igloo_id":"12","name":"Gym","cost":"4800"},"13":{"igloo_id":"13","name":"Split Level Igloo","cost":"4600"},"14":{"igloo_id":"14","name":"Candy Split Level Igloo","cost":"4600"},"15":{"igloo_id":"15","name":"Snowglobe","cost":"3700"},"16":{"igloo_id":"16","name":"Ice Castle","cost":"2400"},"17":{"igloo_id":"17","name":"Split Level Snow Igl","cost":"4600"},"18":{"igloo_id":"18","name":"Fish Bowl","cost":"2400"},"19":{"igloo_id":"19","name":"Tent","cost":"2700"},"20":{"igloo_id":"20","name":"Jack O' Lantern","cost":"2700"},"21":{"igloo_id":"21","name":"Backyard Igloo","cost":"4200"},"22":{"igloo_id":"22","name":"Pink Ice Palace","cost":"2400"},"23":{"igloo_id":"23","name":"Ship Igloo","cost":"4300"},"24":{"igloo_id":"24","name":"Dojo Igloo","cost":"1300"},"25":{"igloo_id":"25","name":"Gingerbread House","cost":"2100"},"26":{"igloo_id":"26","name":"Restaurant Igloo","cost":"4800"},"27":{"igloo_id":"27","name":"Tree House Igloo","cost":"4500"},"28":{"igloo_id":"28","name":"Theatre Igloo","cost":"4600"},"29":{"igloo_id":"29","name":"Circus Tent","cost":"0"},"30":{"igloo_id":"30","name":"Snowy Backyard Igloo","cost":"3000"},"31":{"igloo_id":"31","name":"Cave Igloo","cost":"1500"},"32":{"igloo_id":"32","name":"Green Clover Igloo","cost":"2050"},"33":{"igloo_id":"33","name":"Grey Ice Castle","cost":"2400"},"35":{"igloo_id":"35","name":"Cozy Cottage Igloo","cost":"2500"},"36":{"igloo_id":"36","name":"Estate Igloo","cost":"2500"},"37":{"igloo_id":"37","name":"In Half Igloo","cost":"2300"},"38":{"igloo_id":"38","name":"Shadowy Keep","cost":"2400"},"39":{"igloo_id":"39","name":"Dragon's Lair","cost":"3000"},"40":{"igloo_id":"40","name":"Mermaid Cove","cost":"3030"},"41":{"igloo_id":"41","name":"Whale's Mouth","cost":"2700"},"42":{"igloo_id":"42","name":"Trick-or-Treat Igloo","cost":"2000"},"43":{"igloo_id":"43","name":"Deluxe Gingerbread House","cost":"0"},"45":{"igloo_id":"45","name":"Invisible Snowy","cost":"0"},"46":{"igloo_id":"46","name":"Invisible Beach","cost":"0"},"47":{"igloo_id":"47","name":"Invisible Forest","cost":"0"},"48":{"igloo_id":"48","name":"Invisible Mountain","cost":"0"},"49":{"igloo_id":"49","name":"Shipwreck Igloo","cost":"900"},"50":{"igloo_id":"50","name":"Wildlife Den","cost":"900"},"51":{"igloo_id":"51","name":"Medieval Manor","cost":"1200"},"52":{"igloo_id":"52","name":"Warehouse","cost":"950"},"53":{"igloo_id":"53","name":"Pineapple Igloo","cost":"0"},"54":{"igloo_id":"54","name":"Creepy Cavern","cost":"1500"},"55":{"igloo_id":"55","name":"Frost Bite Palace","cost":"0"},"56":{"igloo_id":"56","name":"Fresh Baked Gingerbread House","cost":"2500"},"57":{"igloo_id":"57","name":"Penthouse","cost":"4000"},"58":{"igloo_id":"58","name":"VIP Penthouse","cost":"0"},"59":{"igloo_id":"59","name":"Invisible Age of Dinosaurs","cost":"0"},"60":{"igloo_id":"60","name":"Puffle Tree Fort","cost":"0"},"61":{"igloo_id":"61","name":"Secret Base","cost":"1600"},"62":{"igloo_id":"62","name":"Death Star Igloo","cost":"1000"},"63":{"igloo_id":"63","name":"Beach Party Igloo","cost":"1500"},"64":{"igloo_id":"64","name":"Gymnasium Igloo","cost":"0"},"65":{"igloo_id":"65","name":"Magical Hideout","cost":"1500"},"66":{"igloo_id":"66","name":"Eerie Castle","cost":"2000"},"67":{"igloo_id":"67","name":"Sweet Swirl Igloo","cost":"0"},"68":{"igloo_id":"68","name":"Train Station Igloo","cost":"1100"},"69":{"igloo_id":"69","name":"Main Event Igloo","cost":"1000"},"70":{"igloo_id":"70","name":"CP Airliner","cost":"1200"}} igloo_id, name ve cost değerlerini elde etmenin bir yoluna ihtiyacım var. Aşağıdakini denedim ama istediğim gibi değil: List<Igloo> igloosList = JsonConvert.DeserializeObject<List<Igloo>>(itemJson); Sınıfımın yapısı şu şekilde namespace Canvas { public class Igloo { public int cost; public int igloo_id; public string name; public int Cost { get { return cost; } } public int Id { get { return igloo_id; } } public string Name { get { return name; } } } }
JsonProperty özniteliğini kullanın: [JsonProperty(PropertyName = "cost")] public int Cost { get { return cost; } private set { cost = value; } } [JsonProperty(PropertyName = "igloo_id")] public int Id { get { return igloo_id; } private set { igloo_id = value; } } [JsonProperty(PropertyName = "name")] public string Name { get { return name; } private set { name = value; } } Temelde, her property için karşılık gelecek Json anahtarını belirtmeniz gerekir. Ayrıca, her property'niz için bir setter bulundurmanız gerekiyor; fakat bu setter private olabilir. A: Tam olarak ne istediğinizi anladığımdan emin değilim. Verdiğiniz kodu çalıştırmayı denediğimde bir exception aldım, Ek bilgi: Cannot deserialize the current JSON object (örneğin: {"name":"value"}) into type 'System.Collections.Generic.List1[ConsoleApplication2.Program+Igloo]' because the type requires a JSON array (örneğin: [1,2,3]) to deserialize correctly. Eğer şunu kullanırsam doğru şekilde deserialize etti: var igloosList = JsonConvert.DeserializeObject<Dictionary<string, Igloo>>( json ); Eğer üzerinde döngü yapmak isterseniz şöyle kullanabilirsiniz: foreach( var igloo in igloosList.Values )
Neden bu binding bir sınıf adını gösteriyor? Silverlight 4 DataGridTextColumn.Header'ın değeri, çözümlenen bağlı değer yerine neden System.Windows.Data.Binding olarak görüntüleniyor olabilir? Görünüşe göre, bir yerde ToString çağrısı yapılıyor ve bu da sınıf adının, sınıfın biçimlendirilmiş değeri yerine gösterilmesine yol açıyor. Binding şöyle görünüyor Header="{Binding Path=Dummy,Source={StaticResource languagingSource},Converter={StaticResource languagingConverter},ConverterParameter=vehicleDescription}" ve sorun binding'in kendisinde değil çünkü aynı XAML sayfası içinde, farklı ConverterParameter değerleriyle, aynı binding Button.Content ve TextBlock.Text özelliklerinde sorunsuz çalışıyor. Hatta local data context içinde şöyle basit bir string property oluştursam bile aynı sonucu veriyor. public string DataGridHeaderDescription { get { return "Description"; } } Header="{Binding DataGridHeaderDescription}" Bir de string format eklemeyi denedim Header="{Binding DataGridHeaderDescription,StringFormat=\{0\}}" ama bunun da hiçbir etkisi olmadı.
Artık FrameworkElement'ten türetilmeyen öğelerde bile binding kullanmak mümkün, ancak bağlanılan öğenin özelliğinin DependencyProperty olarak tanımlanmış olması gerekiyor; ki Header böyle değildir. Header yalnızca başlıkta herhangi bir içeriğin yerleştirilebilmesi için bir konum işaretleyicisi olduğundan, basitçe şöyle yapabilirsiniz: <DataGridTextColumn.Header> <TextBlock Text="{Binding Path=Dummy,Source={StaticResource languagingSource},Converter={StaticResource languagingConverter},ConverterParameter=vehicleDescription}" /> </DataGridTextColumn.Header> A: Biraz daha araştırdıktan sonra, soruya cevap veren ve bazı önerilen çözümler sunan bu başlığı buldum: Dynamically setting the Header text of a Silverlight DataGrid Column
Class.getResource(), uzun süre çalışan bir Java uygulamasının jar dosyasından bir dosya yüklemek için kullanıyorum. Başlangıçta sorunsuz çalışıyor. Ancak uygulama uzun süre çalıştıktan sonra, Class.getResource() null döndürmeye başlıyor. Bunu nasıl debug edebilirim? Şu anda görebildiğim tek şey, getResource() null döndürdüğü için oluşan exception'lar; fakat neden null döndürdüğünü bulamıyorum. Class.getResourceAsStream() ile dönen stream'lerin kapatılmadığı durumları kontrol ettim, ancak bunu çağırmıyorum. (Yine de, kullandığım kütüphanelerden biri bunu yapıyor olabilir...) Ayrıca kapanmamış FileInputStream nesneleri olup olmadığını da kontrol ettim, ama böyle bir şey de bulamadım. (FileInputStream nesneleri bu sorun yaşanırken de çalışmaya devam ediyor.) Not: Bu görünüşe göre şu konudaki sorunla aynı. Muhtemelen bağlantılı da olabilir.
Bunu düzelttim. MANIFEST.MF içindeki versiyonu, URL.openStream() tarafından döndürülen bir InputStream üzerinden okuyan bir kodum vardı: String manifestPath = classPath.substring(0, webInfIndex) + "/META-INF/MANIFEST.MF"; // BUNU YAPMAYIN!!! // openStream() asla kapatılmayan bir InputStream döndürür. Manifest manifest = new Manifest(new URL(manifestPath).openStream()); Attributes attr = manifest.getMainAttributes(); String version = attr.getValue(Attributes.Name.IMPLEMENTATION_VERSION); Java 7 try-with-resources kullanarak sızıntıyı düzeltmek: try (InputStream inputStream = new URL(manifestPath).openStream()) { Manifest manifest = new Manifest(inputStream); Attributes attr = manifest.getMainAttributes(); String version = attr.getValue(Attributes.Name.IMPLEMENTATION_VERSION); }
JS, google api'de geojson kullanarak marker'ı string olarak gösterme Javascript konusunda yeniyim ve geojson dosyasından yüklenen bir değeri marker olarak nasıl göstereceğimi merak ediyorum. Örneğin: koordinatları 35.04226 32.76994 olan bir marker üzerinde 17.6396 sayısını göstermek istiyorum. Şu haritadaki gibi: http://www.meteo.co.il//MeteoMap.aspx <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <meta name="viewport" content="initial-scale=1.0, user-scalable=no" /> <style type="text/css"> html, body, #map-canvas { height: 100%; margin: 0px; padding: 0px } </style> <script type="text/javascript" src="https://maps.googleapis.com/maps/api/js"></script> <script> var map; google.maps.event.addDomListener(window, 'load', function() { map = new google.maps.Map(document.getElementById('map-canvas'), { center: { lat: 32.7, lng: 35.1 }, zoom: 7, }); var script = document.createElement('script'); //data.json- bu geojson dosyası script.setAttribute('src', 'data.json'); document.getElementsByTagName('head')[0].appendChild(script); }); // Json dosyasında referans verilen callback fonksiyonunu tanımlar. function temp_callback(data) { map.data.addGeoJson(data); } </script> </head> <body id="map-container"> <div id="map-canvas"></div> </body> </html> data.json örneği: temp_callback({ "type": "FeatureCollection", "features": [ { "type": "Feature", "geometry": { "type": "Point", "coordinates": [ 35.02026,32.78685 ] }, "properties": { "type":"Feature", "id":1, "weight":16.49633, "geometry.type":"Point", "time":"2015-03-24T14:55:00", "coordinates":"35.02026 32.78685" } }, { "type": "Feature", "geometry": { "type": "Point", "coordinates": [ 35.04226,32.76994 ] }, "properties": { "type":"Feature", "id":2, "weight":17.6396, "geometry.type":"Point", "time":"2015-03-24T14:50:00", "coordinates":"35.04226 32.76994" } } ] })
Numaraları custom marker'lara eklemek için aşağıdaki eğiticiyi kullanabilirsin: Link ve sonrasında her bir custom marker'a infowindow ekleyebilirsin: Link
UIButton ile UIImageView alt görünümü kullanarak animasyonlu resimleri göstermek Animasyonlu resimler gösteren bir buton oluşturmaya çalışıyorum. Şu gönderide, UIButton’a bir UIImageView (animationImages olarak bir diziyle) alt görünüm olarak eklemem önerilmiş. Bunu şu şekilde denedim: (animation1, header’da tanımlanmış bir UIImageView nesnesidir) - (void)viewDidLoad { UIImage *image1 = [UIImage imageNamed:@"Good1.png"]; UIImage *image2 = [UIImage imageNamed:@"Good2.png"]; UIImage *image3 = [UIImage imageNamed:@"Bad1.png"]; NSArray *images = [[NSArray alloc] initWithObjects:image1, image2, image3, nil]; animation1.animationImages = images; [images release]; [self.button1 addSubview:animation1]; [self.button1 bringSubviewToFront:animation1]; [button1 setNeedsDisplay]; animation1.animationDuration = 1; animation1.animationRepeatCount = 3; [animation1 startAnimating]; [super viewDidLoad]; } Ancak butonun içinde hiçbir şey görünmüyor. Nerede yanlış yapıyor olabilirim? Ayrıca, kullanıcı butona bastığında gösterilen imaja göre farklı metodların çağrılmasını istiyorum. Bunu daha önce, görsellerden bir dizi oluşturup NSTimer kullanarak UIButton’ın arka plan görselini döngüyle değiştirerek ve butona basıldığında görsel datasını diziyle karşılaştırıp her biri için farklı bir metot çağırarak başarmıştım. Ama bu yöntem bana çok verimli gelmedi! Bu yüzden görselleri bir alt görünümde döndürmek istiyorum. UIButton’ın UIImageView alt görünümünden görsel verisini almak için bir öneriniz varsa, çok memnun olurum :) Teşekkürler! Michael
Bu tamamen bir tahmin, ancak bazen bir frame'i açıkça belirtmeniz gerekebilir. (örneğin, özel bir butonu UIBarButtonItem'e eklerken) Şu satırı eklemeyi deneyin: animation1.frame = CGRectMake(0,0,50,50);
İki PySpark DataFrame'ini birleştirmek beklenmedik sonuçlar veriyor İki adet PySpark DataFrame'im var (pandas DEĞİL): df1 = +----------+--------------+-----------+---------+ |pk |num_id |num_pk |qty_users| +----------+--------------+-----------+---------+ | 63479840| 12556940| 298620| 13| | 63480030| 12557110| 298620| 9| | 63835520| 12627890| 299750| 8| df2 = +----------+--------------+-----------+----------+ |pk2 |num_id2 |num_pk2 |qty_users2| +----------+--------------+-----------+----------+ | 63479800| 11156940| 298620| 10 | | 63480030| 12557110| 298620| 1 | | 63835520| 12627890| 299750| 2 | İki DataFrame’i birleştirip aşağıdaki gibi tek bir DataFrame elde etmek istiyorum: +----------+--------------+-----------+---------+ |pk |num_id |num_pk |total | +----------+--------------+-----------+---------+ | 63479840| 12556940| 298620| 13| | 63479800| 11156940| 298620| 10| | 63480030| 12557110| 298620| 10| | 63835520| 12627890| 299750| 10| Birleştirme için tek şartım, df1 ve df2'de < pk, num_id, num_pk > değerleri aynı olan satırlarda qty_users değerlerini toplamak. Yukarıdaki örnekte gösterdiğim gibi. Bunu nasıl yapabilirim? GÜNCELLEME: Benim yaptığım şu oldu: newdf = df1.join(df2,(df1.pk==df2.pk2) & (df1.num_pk==df2.num_pk2) & (df1.num_id==df2.num_id2),'outer') newdf = newdf.withColumn('total', sum(newdf[col] for col in ["qty_users","qty_users2"])) Ama bu şekilde 4 sütun yerine 9 sütun elde ediyorum. Bunu nasıl çözebilirim?
Outer join, her iki tablodan da tüm sütunları döndürecektir. Ayrıca, sum fonksiyonu da null döndürebileceğinden, qty_users içindeki null değerleri doldurmamız gerekiyor. Son olarak, coalesce fonksiyonu ile seçme işlemi yapabiliriz, from pyspark.sql import functions as F newdf = df1.join(df2,(df1.pk==df2.pk2) & (df1.num_pk==df2.num_pk2) & (df1.num_id==df2.num_id2),'outer').fillna(0,subset=["qty_users","qty_users2"]) newdf = newdf.withColumn('total', sum(newdf[col] for col in ["qty_users","qty_users2"])) newdf.select(*[F.coalesce(c1,c2).alias(c1) for c1,c2 in zip(df1.columns,df2.columns)][:-1]+['total']).show() +--------+--------+------+-----+ | pk| num_id|num_pk|total| +--------+--------+------+-----+ |63479840|12556940|298620| 13| |63480030|12557110|298620| 10| |63835520|12627890|299750| 10| |63479800|11156940|298620| 10| +--------+--------+------+-----+ Umarım yardımcı olur.! A: Bu çıktı istediğin şeyi üretiyor mu? df3 = pd.concat([df1, df2], as_index=False).groupby(['pk','num_id','num_pk'])['qty_users'].sum() İki dataframe’inizin birleştirilmesi pd.concat([df1, df2], as_index=False) ile sağlanıyor. qty_users sütunlarının, diğer tüm sütunlar aynı olduğunda, toplamını bulmak için önce bu sütunlara göre gruplama yapmak gerekiyor: groupby(['pk','num_id','num_pk']) ve ardından qty_users’ın gruplandırılmış toplamını bulmak için: ['qty_users'].sum()
Cassandra’da Aralıklara Göre Count Aggregate Şu şekilde bir tablom var: CREATE TABLE table ( id text, time_stamp timestamp, value text, PRIMARY KEY (id, time_stamp) ) WITH CLUSTERING ORDER BY (time_stamp DESC) İstediğim şey, herhangi bir zaman biriminde aralıklarla count değerlerini elde etmek. Örnek: { "start": "03-08-2016 00:00:00.000", "end": "03-08-2016 12:00:00.000", "interval": 1, "unit":"HOURS"} Bu, her 1 saatte bir sayarak 12 saatlik bir aralıkta count değerlerini liste olarak döndürecek bir input olacak. İstediğim sonuç ise şöyle: [12, 2, 44, ..., 212]. Şu şekilde birden fazla sorgu ile yapabileceğimi biliyorum: select count(*) from table where time_stamp > '03-08-2016 00:00:00.000' and time_stamp < '03-08-2016 01:00:00.000' allow filtering; select count(*) from table where time_stamp > '03-08-2016 01:00:00.000' and time_stamp < '03-08-2016 02:00:00.000' allow filtering; Ama bu, birden fazla sorgu yapmak olur. Bunu daha hızlı yapmanın bir yolu var mı?
Özel aralıklara göre count işlemi için, bir User Defined Aggregate (UDA) oluşturabilirsiniz. Karşılaşabileceğiniz sorunlardan kaçınmak için blog yazılarımı okuyun: UDF deep dive: http://www.doanduyhai.com/blog/?p=1876 UDF/UDA en iyi uygulamalar & dikkat edilmesi gerekenler: http://www.doanduyhai.com/blog/?p=2015
Vuetify 2.6.12 - v-dialog içinde v-data-table ile ilgili problem Uygulamamda, bir v-dialog içine v-data-table eklediğimde, CSS stilinin bir kısmı kayboluyor. HTML'ye baktığımda, "v-application" ve "v-application--is-ltr" sınıflarının v-dialog'a uygulanmadığını görüyorum. Tüm bileşenler için uygulanan aynı sınıfların ("v-application" ve "v-application--is-ltr") v-dialog içinde de olmasına ihtiyacım var. Bu sınıflar olmadan, v-dialog bazı CSS stillerini uygulamıyor. v-dialog içinde de bir v-data-table kullanabilmem ve bunun düzgün çalışması gerektiğini düşünüyorum. Çeşitli testler yaptım, örneğin v-dialog'dan önce bir v-row ekledim, v-container ekledim, v-col ekledim, v-col'u çıkardım. Çok fazla test yaptım ama bir çözüm bulamadım. Bu problemle karşılaşan oldu mu? Şimdiden çok teşekkürler
Vuetify'de diyalogların içinde tablolar sorunsuz bir şekilde çalışır:
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
115

Collection including boun-tabilab/Stackoverflow-QA-TR